932 resultados para multiplicity of solutions


Relevância:

80.00% 80.00%

Publicador:

Resumo:

In dieser Arbeit werden Quantum-Hydrodynamische (QHD) Modelle betrachtet, die ihren Einsatz besonders in der Modellierung von Halbleiterbauteilen finden. Das QHD Modell besteht aus den Erhaltungsgleichungen für die Teilchendichte, das Momentum und die Energiedichte, inklusive der Quanten-Korrekturen durch das Bohmsche Potential. Zu Beginn wird eine Übersicht über die bekannten Ergebnisse der QHD Modelle unter Vernachlässigung von Kollisionseffekten gegeben, die aus ein­em Schrödinger-System für den gemischten-Zustand oder aus der Wigner-Glei­chung hergeleitet werden können. Nach der Reformulierung der eindimensionalen QHD Gleichungen mit linearem Potential als stationäre Schrö­din­ger-Gleichung werden die semianalytischen Fassungen der QHD Gleichungen für die Gleichspannungs-Kurve betrachtet. Weiterhin werden die viskosen Stabilisierungen des QHD Modells be­rück­sich­tigt, sowie die von Gardner vorgeschlagene numerische Viskosität für das {sf upwind} Finite-Differenzen Schema berechnet. Im Weiteren wird das viskose QHD Modell aus der Wigner-Glei­chung mit Fokker-Planck Kollisions-Ope­ra­tor hergeleitet. Dieses Modell enthält die physikalische Viskosität, die durch den Kollision-Operator eingeführt wird. Die Existenz der Lösungen (mit strikt positiver Teilchendichte) für das isotherme, stationäre, eindimensionale, viskose Modell für allgemeine Daten und nichthomogene Randbedingungen wird gezeigt. Die dafür notwendigen Abschätzungen hängen von der Viskosität ab und erlauben daher den Grenzübergang zum nicht-viskosen Fall nicht. Numerische Simulationen der Resonanz-Tunneldiode modelliert mit dem nichtisothermen, stationären, eindimensionalen, viskosen QHD Modell zeigen den Einfluss der Viskosität auf die Lösung. Unter Verwendung des von Degond und Ringhofer entwickelten Quanten-Entropie-Minimierungs-Verfahren werden die allgemeinen QHD-Gleichungen aus der Wigner-Boltzmann-Gleichung mit dem BGK-Kollisions-Operator hergeleitet. Die Herleitung basiert auf der vorsichtige Entwicklung des Quanten-Max­well­ians in Potenzen der skalierten Plankschen Konstante. Das so erhaltene Modell enthält auch vertex-Terme und dispersive Terme für die Ge­schwin­dig­keit. Dadurch bleibt die Gleichspannungs-Kurve für die Re­so­nanz-Tunnel­diode unter Verwendung des allgemeinen QHD Modells in einer Dimension numerisch erhalten. Die Ergebnisse zeigen, dass der dispersive Ge­schwin­dig­keits-Term die Lösung des Systems stabilisiert.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Lo studio che la candidata ha elaborato nel progetto del Dottorato di ricerca si inserisce nel complesso percorso di soluzione del problema energetico che coinvolge necessariamente diverse variabili: economiche, tecniche, politiche e sociali L’obiettivo è di esprimere una valutazione in merito alla concreta “convenienza” dello sfruttamento delle risorse rinnovabili. Il percorso scelto è stato quello di analizzare alcuni impianti di sfruttamento, studiare il loro impatto sull’ambiente ed infine metterli a confronto. Questo ha consentito di trovare elementi oggettivi da poter valutare. In particolare la candidata ha approfondito il tema dello sfruttamento delle risorse “biomasse” analizzando nel dettaglio alcuni impianti in essere nel Territorio della Regione Emilia-Romagna: impianti a micro filiera, filiera corta e filiera lunga. Con la collaborazione di Arpa Emilia-Romagna, Centro CISA e dell’Associazione Prof. Ciancabilla, è stata fatta una scelta degli impianti da analizzare: a micro filiera: impianto a cippato di Castel d’Aiano, a filiera corta: impianto a biogas da biomassa agricola “Mengoli” di Castenaso, a filiera lunga: impianto a biomasse solide “Tampieri Energie” di Faenza. Per quanto riguarda la metodologia di studio utilizzata è stato effettuato uno studio di Life Cycle Assesment (LCA) considerando il ciclo di vita degli impianti. Tramite l’utilizzo del software “SimaPro 6.0” si sono ottenuti i risultati relativi alle categorie di impatto degli impianti considerando i metodi “Eco Indicator 99” ed “Edip Umip 96”. Il confronto fra i risultati dell’analisi dei diversi impianti non ha portato a conclusioni di carattere generale, ma ad approfondite valutazioni specifiche per ogni impianto analizzato, considerata la molteplicità delle variabili di ogni realtà, sia per quanto riguarda la dimensione/scala (microfiliera, filiera corta e filiera lunga) che per quanto riguarda le biomasse utilizzate.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Il territorio italiano presenta una grandissima ricchezza nel campo dei Beni Culturali, sia mobili che immobili; si tratta di un patrimonio di grande importanza che va gestito e tutelato nel migliore dei modi e con strumenti adeguati, anche in relazione ai problemi ad esso legati in termini di manutenzione e di salvaguardia dai fattori di rischio a cui può essere esposto. Per una buona conoscenza del Patrimonio Culturale, è fondamentale un’acquisizione preliminare di informazioni condotte in modo sistematico e unitario, che siano diffuse ed organiche, ma anche utili ad una valutazione preventiva e ad una successiva programmazione degli interventi di restauro di tipo conservativo. In questo ambito, l'impiego delle tecniche e tecnologie geomatiche nel campo dei Beni Culturali, può fornire un valido contributo, che va dalla catalogazione e documentazione del bene culturale al suo controllo e monitoraggio. Oggigiorno il crescente sviluppo di nuove tecnologie digitali, accompagnato dai notevoli passi avanti compiuti dalle discipline della geomatica (in primo luogo topografiche e fotogrammetriche), rende possibile una efficace integrazione tra varie tecniche, favorita anche dalla diffusione di soluzioni per l’interscambio dati e per la comunicazione tra differenti dispositivi. Lo studio oggetto della presente tesi si propone, di approfondire gli aspetti legati all’uso delle tecniche e tecnologie della Geomatica, per mettere in risalto le condizioni di un bene ed il suo stato di degrado. Per la gestione e la salvaguardia di un bene culturale , si presenta il SIT Carta del Rischio che evidenzia le pericolosità legate al patrimonio, e come esse sommate alla vulnerabilità di un singolo bene, contribuiscano all’individuazione del grado di rischio. di approfondire gli aspetti legati all’uso delle tecniche e tecnologie delle Geomatica, per mettere in risalto le condizioni di un bene ed il suo stato di degrado.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Untersucht werden in der vorliegenden Arbeit Versionen des Satzes von Michlin f¨r Pseudodiffe- u rentialoperatoren mit nicht-regul¨ren banachraumwertigen Symbolen und deren Anwendungen a auf die Erzeugung analytischer Halbgruppen von solchen Operatoren auf vektorwertigen Sobo- levr¨umen Wp (Rn

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Neben astronomischen Beobachtungen mittels boden- und satellitengestützer Instrumente existiert ein weiterer experimenteller Zugang zu astrophysikalischen Fragestellungen in Form einer Auswahl extraterrestrischen Materials, das für Laboruntersuchungen zur Verfügung steht. Hierzu zählen interplanetare Staubpartikel, Proben, die von Raumfahrzeugen zur Erde zurückgebracht wurden und primitive Meteorite. Von besonderem Interesse sind sog. primitive kohlige Chondrite, eine Klasse von Meteoriten, die seit ihrer Entstehung im frühen Sonnensystem kaum verändert wurden. Sie enthalten neben frühem solarem Material präsolare Minerale, die in Sternwinden von Supernovae und roten Riesensternen kondensiert sind und die Bildung unseres Sonnensystems weitgehend unverändert überstanden haben. Strukturelle, chemische und isotopische Analysen dieser Proben besitzen demnach eine große Relevanz für eine Vielzahl astrophysikalischer Forschungsgebiete. Im Rahmen der vorliegenden Arbeit wurden Laboranalysen mittels modernster physikalischer Methoden an Bestandteilen primitiver Meteorite durchgeführt. Aufgrund der Vielfalt der zu untersuchenden Eigenschaften und der geringen Größen der analysierten Partikel zwischen wenigen Nanometern und einigen Mikrometern mussten hierbei hohe Anforderungen an Nachweiseffizienz und Ortsauflösung gestellt werden. Durch die Kombination verschiedener Methoden wurde ein neuer methodologischer Ansatz zur Analyse präsolarer Minerale (beispielsweise SiC) entwickelt. Aufgrund geringer Mengen verfügbaren Materials basiert dieses Konzept auf der parallelen nichtdestruktiven Vorcharakterisierung einer Vielzahl präsolarer Partikel im Hinblick auf ihren Gehalt diagnostischer Spurenelemente. Eine anschließende massenspektrometrische Untersuchung identifizierter Partikel mit hohen Konzentrationen interessanter Elemente ist in der Lage, Informationen zu nukleosynthetischen Bedingungen in ihren stellaren Quellen zu liefern. Weiterhin wurden Analysen meteoritischer Nanodiamanten durchgeführt, deren geringe Größen von wenigen Nanometern zu stark modifizierten Festkörpereigenschaften führen. Im Rahmen dieser Arbeit wurde eine quantitative Beschreibung von Quanteneinschluss-Effekten entwickelt, wie sie in diesen größenverteilten Halbleiter-Nanopartikeln auftreten. Die abgeleiteten Ergebnisse besitzen Relevanz für nanotechnologische Forschungen. Den Kern der vorliegenden Arbeit bilden Untersuchungen an frühen solaren Partikeln, sog. refraktären Metall Nuggets (RMN). Mit Hilfe struktureller, chemischer und isotopischer Analysen, sowie dem Vergleich der Ergebnisse mit thermodynamischen Rechnungen, konnte zum ersten Mal ein direkter Nachweis von Kondensationsprozessen im frühen solaren Nebel erbracht werden. Die analysierten RMN gehören zu den ersten Festkörperkondensaten, die im frühen Sonnensystem gebildet wurden und scheinen seit ihrer Entstehung nicht durch sekundäre Prozesse verändert worden zu sein. Weiterhin konnte erstmals die Abkühlrate des Gases des lokalen solaren Nebels, in dem die ersten Kondensationsprozesse stattfanden, zu 0.5 K/Jahr bestimmt werden, wodurch ein detaillierter Blick in die thermodynamische Geschichte des frühen Sonnensystems möglich wird. Die extrahierten Parameter haben weitreichende Auswirkungen auf die Modelle der Entstehung erster solarer Festkörper, welche die Grundbausteine der Planetenbildung darstellen.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’esposizione degli operatori in campo agricolo alle vibrazioni trasmesse al corpo intero, produce effetti dannosi alla salute nel breve e nel lungo termine. Le vibrazioni che si generano sulle trattrici agricole hanno una elevata intensità e una bassa frequenza. Le componenti orizzontali, amplificate dalla posizione elevata della postazione di guida dall’asse di rollio, presentano maggiori criticità per quanto riguarda i sistemi di smorzamento rispetto alle componenti verticali. Queste caratteristiche rendono difficoltosa la progettazione dei sistemi dedicati alla riduzione del livello vibrazionale per questa categoria di macchine agricole. Nonostante l’installazione di diversi sistemi di smorzamento, il livello di vibrazioni a cui è sottoposto l’operatore può superare, in diverse condizioni di impiego, i livelli massimi imposti dalla legge per la salvaguardia della salute. L’obiettivo di questo lavoro è quello di valutare l’influenza dei moti rigidi di una trattrice (beccheggio, rollio e saltellamento) dotata di sospensione assale anteriore, sospensione cabina e sospensione sedile, sul livello vibrazionale trasmesso all’operatore.E’ stata pertanto strumenta una trattrice con accelerometri e inclinometri installati su telaio, cabina e sedile e utilizzata in diverse condizioni di lavoro in campo e di trasporto su strada. Dall’analisi delle prove effettuate emerge che durante il trasporto su strada è predominante l’accelerazione longitudinale, a causa dell’elevata influenza del beccheggio. La sospensione riduce notevolmente il moto rigido di beccheggio mentre l’effetto della sospensione della cabina è quello di incrementare, in ogni condizione di lavoro, il livello di accelerazione trasmesso dal telaio della macchina.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This Doctoral Thesis unfolds into a collection of three distinct papers that share an interest in institutional theory and technology transfer. Taking into account that organizations are increasingly exposed to a multiplicity of demands and pressures, we aim to analyze what renders this situation of institutional complexity more or less difficult to manage for organizations, and what makes organizations more or less successful in responding to it. The three studies offer a novel contribution both theoretically and empirically. In particular, the first paper “The dimensions of organizational fields for understanding institutional complexity: A theoretical framework” is a theoretical contribution that tries to better understand the relationship between institutional complexity and fields by providing a framework. The second article “Beyond institutional complexity: The case of different organizational successes in confronting multiple institutional logics” is an empirical study which aims to explore the strategies that allow organizations facing multiple logics to respond more successfully to them. The third work “ How external support may mitigate the barriers to university-industry collaboration” is oriented towards practitioners and presents a case study about technology transfer in Italy.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Che rapporto intercorre tra un’opera letteraria e una sua interpretazione? Che cosa fa sì che la prima supporti la seconda? Come possiamo discernere un’interpretazione valida da una che non lo è ? Come può una stessa opera avere interpretazioni differenti e a volte incompatibili tra loro? Assumendo come punto di partenza la proposta di Nelson Goodman di qualificare l’opera letteraria come allografica e, quindi, di definire l’identità dell’opera sulla base della sua compitazione, cercare un risposta alle domande proposte implica un riflessione tanto sul linguaggio, quale strumento simbolico, quanto sulle modalità di riferimento proprie delle opere letterarie. In particolare, di fronte al dissolversi del mondo nella molteplicità delle versioni che il linguaggio può offrire di esso, una peculiare concezione della metafora, intesa come proiezione di un regno del linguaggio su un altro regno dello stesso, si qualifica come un buon modello per la comprensione del rapporto che lega opere letterarie e loro interpretazioni. In tal modo l’opera stessa non solo diviene significativa, ma, attraverso tale significazione, riesce anche a farsi produttiva, modificando, ampliando, ristrutturando la versione dal mondo dalla quale l’interprete-lettore prende le mosse. Ciascuna lettura di un’opera letteraria può infatti essere concepita come una via attraverso la quale ciò che nell’opera è detto viene proiettato sulla visione del mondo propria dell’interprete e di quanti possono condividerne il punto di vista. In tal modo le interpretazioni pongono le opere cui si riferiscono nelle condizioni di fornire un apporto significativo tanto alla comprensione quanto alla costituzione della nostra versione del mondo. E se ciò può avvenire in diversi modi, mutando le interpretazioni a seconda di chi le produce e delle circostanze in cui sorgono, l’opera evita la dissoluzione in virtù della compitazione che la identifica.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Interpolyelektrolytkomplexe bilden sich spontan bei Mischung von Lösungen entgegengesetzt geladener Polyelektrolyte. Dabei sind die Haupttriebkräfte der Entropiegewinn durch die Freisetzung von niedermolekularen Gegenionen sowie die elektrostatischen Wechselwirkungen. In der letzten Zeit sind sie aufgrund ihrer zahlreichen biologischen und technischen Anwendungen in den Fokus des wissenschaftlichen Interesses gerückt. Vor allem die Anwendung von Komplexen aus DNA und kationischen Polyelektrolyten in der nonviralen Gentherapie wird vielfältig diskutiert. rnIn dieser Arbeit wird eine Polystyrolsulfonat-Bürste mit einer Pfropfdichte von 100 % mit einem kationischen Tensid komplexiert und der Komplex in verschiedenen organischen Lösungsmitteln charakterisiert. Dabei zeigt sich eine signifikante Abhängigkeit des Lösungsverhaltens von der Art und der Konzentration zugesetzter Salze. Dieser Polyelektrolyt-Tensid-Komplex wird anschließend als vereinfachtes Modellsystem für die Komplexierung von DNA verwendet. Als kationische Komponente dient zunächst ein kommerzielles PAMAM-Dendrimer der 5. Generation. Dabei steht die Erhaltung der zylindrischen Topologie der anionischen Polyelektrolytbürste in den gebildeten Komplexen im Vordergrund. Durch Variation des Lösungsmittels und des Protonierungsgleichgewichts werden die experimentellen Bedingungen eingegrenzt, bei denen eine solche topologische Kontrolle möglich ist. Es zeigt sich, dass durch die Verwendung von aprotischen organischen Lösungsmitteln gute Erfolge erzielt werden können. Des Weiteren wird das Komplexierungsverhalten stark durch den Zusatz einer Säure oder einer Base beeinflusst, sodass eine topologische Kontrolle mit einem großen Überschuss einer organischen Base auch in protischen Lösungsmitteln wie Wasser und Methanol möglich wird. Anschließend wird das gleiche Polyanion noch mit einer geschützten Polylysin-Bürste in DMF komplexiert, was zur Bildung von kinetisch kontrollierten Aggregaten führt. Die Bildung dieser Aggregate kann durch den Zusatz eines großen Überschusses an Base verhindert werden und es werden zylindrische Komplexe erhalten, die nur aus einer Polylysin-Bürste bestehen. rn

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In un contesto dominato da invecchiamento della popolazione, prevalenza della cronicità e presenza crescente di pazienti multiproblematici e non autosufficienti è indispensabile spostare il baricentro delle cure dall'acuzie alla cronicità, e quindi assicurare la continuità e la coerenza fra i diversi setting di cura, sia sanitari che socio-sanitari (ospedale, servizi sanitari territoriali, domicilio, strutture residenziali di Long term care). Dall'analisi della letteratura emerge che il maggiore ostacolo a realizzare questa continuità è rappresentato dalla presenza, caratteristica del sistema di welfare italiano, di molteplici attori e strutture con competenze, obiettivi e funzioni diverse e separate, e la raccomandazione di lavorare per l'integrazione contemporaneamente su più livelli: - normativo-istituzionale - programmatorio - professionale e gestionale Il sistema della "governance" realizzato in Emilia-Romagna per l'integrazione socio-sanitaria è stato valutato alla luce di queste raccomandazioni, seguendo il modello della Realist evaluation per i Social complex interventions: enucleando le "teorie" alla base dell'intervento ed analizzando i diversi step della sua implementazione. Alla luce di questa valutazione, il modello della "governance" è risultato coerente con le indicazioni delle linee guida, ed effettivamente capace di produrre risultati al fine della continuità e della coerenza fra cure sanitarie e assistenza sociale e sanitaria complessa. Resta da realizzare una valutazione complessiva dell'impatto su efficacia, costi e soddisfazione dei pazienti.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Mechanismen der zentralen und der peripheren Toleranz schützen den Körper vor Immunreaktionen gegen körpereigenes Gewebe oder gegen harmlose Umweltantigene. An der Aufrechterhaltung der peripheren Toleranz sind tolerogene Dendritische Zellen (DC) beteiligt. Tolerogene DC können in vitro u.a. mit Hilfe von immunsuppressiven und antiinflammatorischen Substanzen, aber auch durch virale Transduktionen, die zur Denovo- oder Überexpression toleranzassoziierter Moleküle führen, generiert werden. rnDa die Wirkung einiger immunmodulatorischer Substanzen über den intrazellulären sekundären Botenstoff cAMP vermittelt wird, sollte getestet werden, welchen Einfluss eine direkte Erhöhung des intrazellulären cAMP-Niveaus mittels Dibutyryl-cyclo-Adenosin-3´,5´-Mono-Phoshat (db-cAMP) auf die phänotypischen und funktionellen Eigenschaften von BM-DC („bone marrow derived dendritic cells“) hat.rnIm Vergleich zu unbehandelten BM-DC wiesen db-cAMP-DC ein vermindertes T-Zell-Stimulierungs-potenzial auf. Dieses verminderte T-Zell-Stimulierungspotenzial wird teilweise über die Proteinkinase A, nicht aber über Cyclooxygenase-2 (Cox-2) vermittelt. rnAnhand der FACS-Analyse mit DC- und MDSC- („myeloid derived suppressor cells“) spezifischen Markern konnte gezeigt werden, dass es sich bei den db-cAMP-DC um CD11c-positive DC mit einer vergleichsweise niedrigen Expression von MHCII und kostimulatorischen Oberflächenmolekülen handelt. Des Weiteren zeigte sich, dass sie verglichen mit BM-DC eine vermehrte mRNA-Expression der koinhibitorischen Moleküle B7-H1 und LIGHT und der toleranzassoziierten Moleküle FcγRIIB, HO-1 und Cox-2 aufweisen. Mittels ELISA konnte eine gesteigerte Expression der HO-1- und eine moderat gesteigerte PGE2-Synthese beobachtet werden. PGE2 wird mit Hilfe der Cox-2 aus Arachidonsäure gebildet.rnIm Gegensatz zu BM-DC wiesen db-cAMP-DC in beiden Reifungsstadien ein verändertes Zytokinprofil auf: Auf mRNA-Ebene zeigte sich, dass db-cAMP-DC verglichen mit BM-DC vermehrt IL-1RA und IL-10 exprimieren. Dieser Unterschied konnte für IL-10 auch mittels ELISA bestätigt werden. In den Kulturüberständen der stimulierten db-cAMP-DC konnte, im Gegensatz zu denen stimulierter BM-DC, kaum bioaktives IL-12 nachgewiesen werden. rnDb-cAMP-DC induzierten des Weiteren in kokultivierten allogenen T-Zellen ein differenzielles Zytokinprofil: Sie förderten die INFγ- und IL-17-Sezernierung durch T-Zellen, während die IL-5-Sezernierung geringer war, wenn T-Zellen mit stimulierten db-cAMP-DC kokultiviert wurden. Db-cAMP-DC hatten hingegen keinen Einfluss auf die IL-10-Produktion. Außerdem führte eine Kokultur der db-cAMP-DC mit allogenen T-Zellen nicht zu einer gesteigerten Induktion von FoxP3+ Treg. rnIn einem zweiten Ansatz sollte getestet werden ob es möglich ist die murine DC-Linie SP37A3 lentiviral mit dem toleranzassoziierten Oberflächenprotein B7-H3 zu transduzieren. Dies ist von Interesse, da die SP37A3-Zellen einige Vorteile gegenüber BM-DC aufweisen, wie z.B. ihren homogeneren Phänotyp und die Möglichkeit sie in einer Expansionskultur zu halten.rnEs konnte gezeigt werden, dass SP37A3-Zellen als Modell für myeloide DC für die Transduktion mit lentiviralen Partikeln geeignet sind. Hierbei zeigte es sich aber, dass darauf geachtet werden muss, mit konzentriertem Virus zu arbeiten und dass die Reportergen-Expression der Zielzellen über mehr als 3 Tage (mindestens 7 Tage) untersucht werden muss. Nur so kann eine eventuell auftretende Pseudotransduktion erkannt und verhindert werden. Ab einer MOI („multiplicity of infection“) von 50 konnte in SP37A3-Zellen eine Transgen-Expression nachgewiesen werden.rn

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Until few years ago, 3D modelling was a topic confined into a professional environment. Nowadays technological innovations, the 3D printer among all, have attracted novice users to this application field. This sudden breakthrough was not supported by adequate software solutions. The 3D editing tools currently available do not assist the non-expert user during the various stages of generation, interaction and manipulation of 3D virtual models. This is mainly due to the current paradigm that is largely supported by two-dimensional input/output devices and strongly affected by obvious geometrical constraints. We have identified three main phases that characterize the creation and management of 3D virtual models. We investigated these directions evaluating and simplifying the classic editing techniques in order to propose more natural and intuitive tools in a pure 3D modelling environment. In particular, we focused on freehand sketch-based modelling to create 3D virtual models, interaction and navigation in a 3D modelling environment and advanced editing tools for free-form deformation and objects composition. To pursuing these goals we wondered how new gesture-based interaction technologies can be successfully employed in a 3D modelling environments, how we could improve the depth perception and the interaction in 3D environments and which operations could be developed to simplify the classical virtual models editing paradigm. Our main aims were to propose a set of solutions with which a common user can realize an idea in a 3D virtual model, drawing in the air just as he would on paper. Moreover, we tried to use gestures and mid-air movements to explore and interact in 3D virtual environment, and we studied simple and effective 3D form transformations. The work was carried out adopting the discrete representation of the models, thanks to its intuitiveness, but especially because it is full of open challenges.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In questa tesi dottorale viene preso in analisi il tema della famiglia, uno degli elementi fondanti della riflessione pedagogica, crocevia di una molteplicità di nuclei interpretativi con diramazioni e contaminazioni, con mutamenti attraverso le epoche storiche, rappresentati in pagine contenute nei Classici della letteratura per l’infanzia e nei migliori libri di narrativa contemporanea. Si tratta di un tema di grande ampiezza che ha comportato una scelta mirata di Autori che, nei loro romanzi hanno trattato questioni riguardanti la famiglia nelle sue pluralità delle sue tante accezioni, dalla vita familiare agli abbandoni, dalle infanzie senza famiglia alle famiglie altre. Nelle diverse epoche storiche, le loro narrazioni hanno lasciato un segno per l'originalità interpretativa che ancora oggi ci raccontano storie di vie familiale Dai romanzi ottocenteschi alle saghe fantasy degli ultimi cinquant’anni, fino ai picturebook, destinati ai più piccoli, le families stories possono costituire un materiale pedagogico privilegiato, sia offrendo occasioni di scoperta e conoscenza di sé e del mondo, attraverso le quali i lettori bambini, enigmatici frontalieri, varcano soglie verso altrovi misteriosi, sia fornendo spunti agli studiosi per approfondire tematiche multiple e complesse. Le families stories riflettono spesso in maniera critica le divergenze che possono manifestarsi tra le prassi individuate e studiate dalle scienze umane e sociali e le metafore narrative proposte dai numerosi Autori della letteratura per l’infanzia. Proponendo una prospettiva spesso spiazzante, esse interpretano la realtà a fondo, cogliendo i più piccoli ed inosservati particolari che, invece, hanno la capacità di rompere gli schemi socio-educativi dell’epoca storica in cui le storie prendono vita.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La tesi indaga l’esperienza del teatro comunitario, una delle espressioni artistiche più originali e pressoché sconosciute nel panorama teatrale novecentesco, che ha avuto in Argentina un punto di riferimento fondamentale. Questo fenomeno, che oggi conta cinquanta compagnie dal nord al sud del paese latinoamericano, e qualcuna in Europa, affonda le sue radici nella Buenos Aires della post-dittatura, in una società che continua a risentire degli esiti del terrore di Stato. Il teatro comunitario nasce dalla necessità di un gruppo di persone di un determinato quartiere di riunirsi in comunità e comunicare attraverso il teatro, con l'obiettivo di costruire un significato sociale e politico. La prima questione messa a fuoco riguarda la definizione della categoria di studio: quali sono i criteri che consentono di identificare, all’interno della molteplicità di pratiche teatrali collettive, qualcosa di sicuramente riconducibile a questo fenomeno. Nel corso dell’indagine si è rivelata fondamentale la comprensione dei conflitti dell’esperienza reale e l’individuazione dei caratteri comuni, al fine di procedere a un esercizio di generalizzazione. La ricerca ha imposto la necessità di comprendere i meccanismi mnemonici e identitari che hanno determinato e, a loro volta, sono stati riattivati dalla nascita di questa esperienza. L’analisi, supportata da studi filosofici e antropologici, è volta a comprendere come sia cambiata la percezione della corporeità in un contesto di sparizione dei corpi, dove il lavoro sulla memoria riguarda in particolare i corpi assenti (desaparecidos). L’originalità del tema ha imposto la riflessione su un approccio metodologico in grado di esercitare una adeguata funzione euristica, e di fungere da modello per studi futuri. Sono stati pertanto scavalcati i confini degli studi teatrologici, con particolare attenzione alle svolte culturali e storiche che hanno preceduto e affiancato l’evoluzione del fenomeno.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The Standard Model of particle physics is a very successful theory which describes nearly all known processes of particle physics very precisely. Nevertheless, there are several observations which cannot be explained within the existing theory. In this thesis, two analyses with high energy electrons and positrons using data of the ATLAS detector are presented. One, probing the Standard Model of particle physics and another searching for phenomena beyond the Standard Model.rnThe production of an electron-positron pair via the Drell-Yan process leads to a very clean signature in the detector with low background contributions. This allows for a very precise measurement of the cross-section and can be used as a precision test of perturbative quantum chromodynamics (pQCD) where this process has been calculated at next-to-next-to-leading order (NNLO). The invariant mass spectrum mee is sensitive to parton distribution functions (PFDs), in particular to the poorly known distribution of antiquarks at large momentum fraction (Bjoerken x). The measurementrnof the high-mass Drell-Yan cross-section in proton-proton collisions at a center-of-mass energy of sqrt(s) = 7 TeV is performed on a dataset collected with the ATLAS detector, corresponding to an integrated luminosity of 4.7 fb-1. The differential cross-section of pp -> Z/gamma + X -> e+e- + X is measured as a function of the invariant mass in the range 116 GeV < mee < 1500 GeV. The background is estimated using a data driven method and Monte Carlo simulations. The final cross-section is corrected for detector effects and different levels of final state radiation corrections. A comparison isrnmade to various event generators and to predictions of pQCD calculations at NNLO. A good agreement within the uncertainties between measured cross-sections and Standard Model predictions is observed.rnExamples of observed phenomena which can not be explained by the Standard Model are the amount of dark matter in the universe and neutrino oscillations. To explain these phenomena several extensions of the Standard Model are proposed, some of them leading to new processes with a high multiplicity of electrons and/or positrons in the final state. A model independent search in multi-object final states, with objects defined as electrons and positrons, is performed to search for these phenomenas. Therndataset collected at a center-of-mass energy of sqrt(s) = 8 TeV, corresponding to an integrated luminosity of 20.3 fb-1 is used. The events are separated in different categories using the object multiplicity. The data-driven background method, already used for the cross-section measurement was developed further for up to five objects to get an estimation of the number of events including fake contributions. Within the uncertainties the comparison between data and Standard Model predictions shows no significant deviations.