75 resultados para Intelligente Werkzeugbereitstellung
Resumo:
Dans le domaine de l’éducation, comme dans d’autres domaines d’intervention auprès des humains, les organismes d’agrément exigent de plus en plus que les pratiques professionnelles s’appuient sur des résultats de recherches qui les valident (des données probantes). Cela conduit certains chercheurs à privilégier des travaux qui suivent une démarche hypothético-déductive avec des dispositifs standardisés et des données étalonnées (quantitatives). D’autres, pour mieux comprendre ce qui se passe, privilégient l’induction analytique recourant à des dispositifs plus souples qui s’adaptent aux variations du terrain et produisent des données qui ne seront étalonnées qu’a posteriori (qualitatives). Enfin, un troisième groupe de chercheur utilise aussi des dispositifs adaptatifs, mais traite leur matériel de manière plus gestaltiste par typicalisation produisant des récits de dynamique professionnelle. Or, aucune de ces trois orientations de recherche ne parvient, comme le remarquait déjà Huberman en en 1982, à combler l’écart entre les recherches et le discours des enseignants-chercheurs d’une part, et leur participation effective à la formation de professionnels de l’intervention dont les pratiques devraient être fondées sur des données probantes. Des facteurs historiques peuvent excuser cette situation dans des départements et formations professionnelles jadis dispensées dans des grandes écoles non universitaires. Cependant, on constate que les pratiques de recherche restent largement inspirées par une image idéalisée de la recherche fondamentale ou expérimentale ou philosophique avec des visées épistémiques. Or, il y a d’autres domaines de savoir, celui de la technique, de la sagesse pratique et de l’art. Corrélativement, on peut dire qu’il y a d’autres métiers de chercheurs que celui qui consiste à développer des connaissances causales ou interprétatives alors que c’est à partir de cette seule sensibilité théorique que la notion de pôle paradigmatique a été développée et que les questions auxquelles les recherches qualitatives devaient répondre ont été établies . Aussi les questions et les réponses aux quatre pôles épistémologiques (ontologique, sémantique, instrumental et rhétorique) auront d’autres exigences de forme et de contenu pour les chercheurs engagés dans des perspectives technologiques, pratiques ou artistiques. L’hypothèse proposée pour tenter de comprendre le hiatus entre les recherches universitaires et l’attitude des praticiens porte sur le glissement opéré par trop de chercheurs entre une formulation de problèmes arrimés aux sensibilités technologiques, pratiques ou artistiques et leur reproblématisation dans la perspective d’une sensibilité théorique. Il en découle que ces recherches privilégient des dispositifs conçus pour vérifier ou découvrir des hypothèses discursives (la sémantique de l’intelligibilité de l’action, selon Barbier ), plutôt que des dispositifs semblables aux conditions de la pratique professionnelle et qui respectent ses contraintes. Or, les professionnels attendent des résultats de la recherche que ceux-ci prennent en compte les contraintes de leurs activités et que leurs conclusions soient formulées dans des formes de présentation qui leur sont appropriées : une sémantique et une rhétorique de l’action intelligente, selon la formule d’Evans qui définit la praxis comme une action pensée et finalisée autant qu’une finalité pensée et agie. Quatre cas de professeurs-chercheurs et d’étudiants illustrent cette tension et les glissements méthodologiques vers l’épistémique au détriment des sensibilités professionnelles et les difficultés qui en découlent, surtout pour les étudiants. Or, il y a moyen de résoudre autrement cette tension, à condition de changer de posture. C’est la piste que nous suggérons avec une méthodologie qui respecte les contraintes de l’activité professionnelle, qui exploite les formulations et les dispositifs propres aux praticiens, et qui utilise les confrontations entre l’activité et les praticiens eux-mêmes comme démarche de la co-construction d’une présentation explicitant l’intelligence de l’action.
Resumo:
Neueste Entwicklungen in Technologien für dezentrale Energieversorgungsstrukturen, erneuerbare Energien, Großhandelsenergiemarkt, Mini- und Mikronetze, verteilte Intelligenz, sowie Informations- und Datenübertragungstechnologien werden die zukünftige Energiewelt maßgeblich bestimmen. Die derzeitigen Forschungsbemühungen zur Vernutzung aller dieser Technologien bilden die Voraussetzungen für ein zukünftiges, intelligentes Stromnetz. Dieses neue Konzept gründet sich auf die folgenden Säulen: Die Versorgung erfolgt durch dezentrale Erzeugungsanlagen und nicht mehr durch große zentrale Erzeuger; die Steuerung beeinflusst nicht mehr allein die Versorgung sondern ermöglich eine auch aktive Führung des Bedarf; die Eingabeparameter des Systems sind nicht mehr nur mechanische oder elektrische Kenngrößen sondern auch Preissignale; die erneuerbaren Energieträger sind nicht mehr nur angeschlossen, sondern voll ins Energienetz integriert. Die vorgelegte Arbeit fügt sich in dieses neue Konzept des intelligenten Stromnetz ein. Da das zukünftige Stromnetz dezentral konfiguriert sein wird, ist eine Übergangsphase notwendig. Dieser Übergang benötigt Technologien, die alle diese neue Konzepte in die derzeitigen Stromnetze integrieren können. Diese Arbeit beweist, dass ein Mininetz in einem Netzabschnitt mittlerer Größe als netzschützende Element wirken kann. Hierfür wurde ein neues Energiemanagementsystem für Mininetze – das CMS (englisch: Cluster Management System) – entwickelt. Diese CMS funktioniert als eine von ökonomischorientierte Betriebsoptimierung und wirkt wie eine intelligente Last auf das System ein, reagierend auf Preissignale. Sobald wird durch eine Frequenzsenkung eine Überlastung des Systems bemerkt, ändert das Mininetz sein Verhalten und regelt seine Belastung, um die Stabilisierung des Hauptnetzes zu unterstützen. Die Wirksamkeit und die Realisierbarkeit des einwickelten Konzept wurde mit Hilfe von Simulationen und erfolgreichen Laborversuchen bewiesen.
Resumo:
Oberflächen, die reversibel auf einen externen Stimulus reagieren, werden als intelligente Oberflächen bezeichnet und sind von großem Interesse für Wissenschaft und Technik. Im diesem Rahmen haben wir ein modulares Synthesekonzept entwickelt, das die spontane Selbstorganisation funktionaler Adsorbatmoleküle auf Au(111) und HOPG ausnutzt. Das Design der Adsorbatmoleküle erlaubt eine modulare Synthese. Scheibchenförmige Moleküle wie Phthalocyanine und Porphyrine, die in der Peripherie Thioetherseitenketten tragen, dienen als Anbindungseinheiten. Das zentrale Metallatom dient als Anknüpfungspunkt für starre Einheiten, die aus Abstandshaltern und Funktionsträgern bestehen. Dieses Konzept erlaubt es sowohl die laterale Separation Funktionseinheiten einzustellen um es den Funktionsträgern zu ermöglichen ohne Behinderung durch Nachbarmoleküle ihre Funktion auszuüben. Für diese Arbeit waren Funktionseinheiten wichtig, deren Funktionen unter anderem Redoxaktivität, Photoschaltbarkeit, Komplexierung katalytisch aktiver Metalle und Immobilisierung onkogener Proteine umfassen. Zum Beleg dieses Konzeptes wurde ein starres Ferrocen-Derivat für die Postmodifizierung eines Zn-Phthalocyanin-SAMs verwendet. Die erhaltenen Filme wurden mittels C1s- und Fe2p-NEXAFS-Spektroskopie ebenso untersucht wie mittels TDS. Strukturell verwandte Komplexe konnten durch RSA charakterisiert werden.
Resumo:
Die spektrale Zusammensetzung von Licht ändert sich, wenn es mit gasförmiger, flüssiger oder fester Materie d.h. mit Ionen, Atomen, Molekülen, Atom- und Molekülverbänden und amorphen oder kristallinen Festkörpern interagiert. Spektroskopische Messungen des Lichts nach der Wechselwirkung geben Aufschluss über die Eigenschaften der zu untersuchenden Materie [2]. Viele der heute noch nicht realisierbaren Ideen und Konzepte in den verschiedensten Anwendungsfeldern der Sensorik benötigen aber für ihre Umsetzung extrem miniaturisierte Spektrometer als Kernbestandteil der Sensoren. Ziel ist es jedoch nicht, dem Anwender dieser Sensoren Informationen über das Spektrum zu liefern, sondern die ausgewerteten spektralen Information als Indikator zum Handeln zu nutzen. Derartige intelligente Sensoren werden in Zukunft unter anderem dazu beitragen intelligente persönliche Umgebungen (engl.: smart rooms, smart buildings, smart cities, samrt personal environments) zu entwerfen und zu realisieren. Grundvoraussetzung für die Erschließung der verschiedenen Anwendungsgebiete sind Spektrometer, die die Anforderungen an niedrige Kosten, hohe Stückzahlen sowie geringe Größe und geringes Gewicht besser als verfügbare Hochleistungsgitter-Spektrometer erfüllen, die zwar bereits in den Bereich weniger Zentimeter miniaturisiert wurden, aber immer noch makroskopisch sind. Ziel dieser Arbeit ist es, zu zeigen, dass es möglich ist, ein Fabry-Pérot Filterfeld herzustellen, welches später den Kern eines Nanospektrometers darstellen soll, bei dem die unterschiedlichen Kavitäten in einem einzigen Schritt mithilfe der Nanoimprint-Technologie erzeugt werden. Angesichts des Forschungsdefizits hinsichtlich der Nutzung der Nanoimprint-Technologie zur Fertigung von in ihrer Höhe exakten Strukturen werden in der vorliegenden Arbeit zwei Nanoimprint-Technologien untersucht: Das Heißprägen und das UV-Prägen. Das Ergebnis dieser Arbeit ist ein Fabry-Pérot Filterfeld, welches mittels geeigneter Nanoimprint-Technologie hergestellt wurde und demonstriert, dass ein Nanospektrometer auf der Basis eines Feldes von Filtern technisch realisierbar ist. Dazu werden im praktischen Teil dieser Arbeit (Untersuchung der Prägeprozesse) verschiedene technologische Methoden und Maschinen vorgestellt und die damit erreichten Ergebnisse hinsichtlich der Fabry-Pérot-Filterfelder verglichen. Die hergestellten Filterfelder wurden systematisch spektral vermessen. Diese Analyse zeigt 64 Transmissionsbänder der einzelnen Filter eines Feldes. Ein Vergleich mit publizierten Arbeiten des Standes der Wissenschaft und Technik zeigt, dass im Rahmen der vorliegenden Arbeit eine deutliche Verbesserung erreicht wurde. So konnte eine drastische Steigerung der transmittierten Lichtintensität der Filter erzielt werden und eine Nanoimprint-Methode identifiziert werden, mit welcher es möglich ist, einen Demonstrator herzustellen. Aufgrund der im Rahmen einer ausführlichen Charakterisierung ermittelten sehr guten experimentellen Ergebnisse des Demonstrators kann ein Nanospektrometer mit dem Fabry-Pérot-Filterfeld als Kernbestandteil in Zukunft hergestellt werden.
Resumo:
Nachhaltige Konversion bei der Herrichtung frei gewordener militärischer Liegenschaften, insbesondere zu Hochschuleinrichtungen, ist mit großen Herausforderungen verbunden. Abgestimmte Raumbedarfe, nutzungsgerecht und wirtschaftlich vertretbar, in der Struktur einer ehemaligen Kaserne umzusetzen, erfordert ein kompetentes Projektmanagement mit allen erforderlichen Fachplanern. Maximale Ausnutzung der vorhandenen Raumstrukturen und weitestgehende Weiterverwendung der bestehenden Bausubstanz der Kasernengebäude haben Priorität und erhöhen u. a. den Wert der Nachhaltigkeit. Bei erforderlichen Neubauten auf ehemals militärisch genutzten Arealen sind unter Beachtung der wirtschaftlichen Vertretbarkeit das Erzielen der höchsten Energieeffizienz, die intelligente Umsetzung der Nutzerbelange und die weitreichende Schonung der Ressourcen unerlässlich. Das Buch mit seinen Nachhaltigkeitsanalysen dient als Arbeitshilfe für Baufachleute zur Umsetzung von Nachhaltigkeitszielen bei der Planung und der Realisierung ihrer Konversions-Bauvorhaben.
Resumo:
Fujaba is an Open Source UML CASE tool project started at the software engineering group of Paderborn University in 1997. In 2002 Fujaba has been redesigned and became the Fujaba Tool Suite with a plug-in architecture allowing developers to add functionality easily while retaining full control over their contributions. Multiple Application Domains Fujaba followed the model-driven development philosophy right from its beginning in 1997. At the early days, Fujaba had a special focus on code generation from UML diagrams resulting in a visual programming language with a special emphasis on object structure manipulating rules. Today, at least six rather independent tool versions are under development in Paderborn, Kassel, and Darmstadt for supporting (1) reengineering, (2) embedded real-time systems, (3) education, (4) specification of distributed control systems, (5) integration with the ECLIPSE platform, and (6) MOF-based integration of system (re-) engineering tools. International Community According to our knowledge, quite a number of research groups have also chosen Fujaba as a platform for UML and MDA related research activities. In addition, quite a number of Fujaba users send requests for more functionality and extensions. Therefore, the 8th International Fujaba Days aimed at bringing together Fujaba develop- ers and Fujaba users from all over the world to present their ideas and projects and to discuss them with each other and with the Fujaba core development team.
Resumo:
À haute intensité, les deux principales sources d'inconfort physique au travail sont la chaleur et le bruit (Pellerin & Candas, 2003). Même à des intensités modérées et faibles, le bruit affecte les performances cognitives, y compris dans les tâches de bureau courantes, mais il le fait de plusieurs manières différentes selon la nature du bruit (par exemple, discours vs. non-discours, intensité sonore, variabilité et prévisibilité etc.) et le type de tâche dans laquelle l'individu ou le groupe est engagé. Il est un peu surprenant, donc, que les individus expriment souvent une préférence pour travailler dans des conditions de bruit modérées (Schlittmeier & Hellbrück, 2009). Les multiples formes de perturbation auditive nuisant aux performances cognitives sont examinées et comparées avec leurs avantages potentiels dans le cadre du travail, résultant du traitement du bruit de fond en termes de sens du lieu, d'apprentissage fortuit des régularités dans le monde auditif, et de commutation intelligente de l'attention.
Resumo:
L’idea di base della seguente tesi, finora mai applicata o descritta in letteratura scientifica in base alle ricerche effettuate, è stata quella di creare un sistema di monitoraggio strutturale intelligente (Structural Health Monitoring, SHM) mediante dei sensori di deformazione a reticolo di Bragg (Fiber Bragg Grating, FBG), incollati su fili a memoria di forma inseriti a loro volta, bloccati con opportuni ancoraggi esterni, in sei travi di betoncino cementizio armato. L’obbiettivo della sperimentazione è stato quindi quello di creare delle travi intelligenti che, in condizioni di carico eccezionali e critiche (monitorate dal sensore a fibra ottica), sapessero “autoripararsi” mediante gli attuatori a memoria di forma con un processo di riscaldamento appositamente progettato.
Resumo:
Con il presente lavoro di tesi si è studiata la possibilità di estrarre informazioni sugli andamenti dei processi biologici dall’osservazione dei segnali di pH, potenziale di ossido riduzione (ORP) e ossigeno disciolto (DO) nelle vasche di processo di un impianto a fanghi attivi a flusso continuo (predenitro/nitro) per verificare la possibilità di utilizzare questo tipo di sonde per lo sviluppo di sistemi per il controllo automatico e la gestione intelligente, eventualmente remota, degli impianti di depurazione. Il lavoro di sperimentazione è stato svolto su un impianto pilota a flusso continuo con schema predenitro – nitro, costruito ed installato presso i laboratori della sede Enea di Bologna (Sezione ACS PROT IDR - Gestione Risorse Idriche). L’obiettivo primario della sperimentazione è stato quello di portare il sistema in uno stato stazionario di equilibrio, così da poter stabilire delle condizioni di funzionamento note e costanti, riscontrabili anche nei segnali di riferimento. Tali condizioni sono state definite prendendo come riferimento un impianto reale noto, funzionante in condizioni di processo costanti e medie, definendo contestualmente test sperimentali che riproducessero condizioni riscontrabili sullo stesso impianto reale. Le condizioni del sistema sono state monitorate costantemente, attraverso il monitoraggio giornaliero dei processi, effettuato con attività di campionamento e di analisi, osservando costantemente i segnali indiretti.
Resumo:
Nel tentativo di rispondere alle esigenze valutate in seguito all’analisi del centro storico in base a differenti profili investigativi, si è formulato un programma di intervento con obiettivi e strategie codificate. In modo particolare viene privilegiata l’indagine effettuata a livello sociale sulla popolazione del centro storico, ambito di ricerca necessario per una buona premessa per un progetto che ha come oggetto l’abitare. Da queste considerazioni nasce l’idea del progetto dove il tema della residenza si inserisce in un contesto urbano in stretta relazione con il tessuto storico della città di Forlì. L’individuazione dell’area di progetto, situata in una posizione di confine tra due realtà differenti, il centro storico e la circonvallazione che lo racchiude, suggerisce la necessità di stabilire attraverso collegamenti perdonali e ciclabili fra l’area in esame e la periferia esterna una configurazione dinamica, dove il vuoto urbano che si presenta è lo scenario ideale per ristabilire una porta moderna alla città, ricomponendo la leggibilità tra la sfera naturale e quella insediativa. Alla scala urbana l’obiettivo è quello di stabilire il ruolo di centralità dell’area, nel suo insieme, restituendo ai fatti urbani della città le funzioni di interesse pubblico generale. La zona oggetto di discussione è un nodo urbano in cui coesistono manufatti di pregio architettonico e storico come quello della Filanda in oggetto e dell’Ex Complesso conventuale della Ripa, in grado di essere potenziali contenitori di funzioni pubbliche di alto livello, e aree verdi da riqualificare, con forte propensione all’uso pubblico, come gli Orti di via Curte. Sotto questo profilo deve essere valutata anche la tematica del rapporto con l’architettura antica, tenendo in considerazione l’effetto di impatto che i nuovi interventi avranno sull’esistente. È dunque il sito di progetto che detta le metodologie di approccio legate alla necessità di un intervento sostenibile e non invasivo. Partendo da queste considerazioni si sviluppano le tematiche legate alla flessibilità e alle sue coniugazioni. La società contemporanea che ci impone ogni giorno modelli di vita sempre nuovi e la necessità di movimento e trasformazione, ci mette di fronte più che mai al bisogno di progettare spazi non rigidi, ma aperti alle molteplici possibilità d’uso e ai cambiamenti nel tempo. La flessibilità viene dunque concepita in relazione ai concetti di complessità e sostenibilità. Se da una parte è necessario riconoscere la molteplicità dei modi d’uso con i quali l’oggetto dovrà confrontarsi ed assumere il carattere aleatorio di qualsiasi previsione relativa ai modelli di comportamento dell’utenza, dall’altra occorre cogliere all’interno del progetto della residenza flessibile la possibilità di pervenire a un costruire capace di riconfigurarsi di volta in volta, adattandosi alle differenti condizioni d’uso, senza dover procedere a drastiche modifiche che impongono la dismissione di materiali e componenti. Il sistema della stratificazione a secco può essere quello che attualmente meglio risponde, per qualità ed economicità, ai concetti della biologia dell’abitare e della casa intelligente, nozioni che acquisiscono sempre più importanza all’interno di una nuova concezione della progettazione. Si sceglie dunque di riportare la Filanda, quanto possibile, alla riconfigurazione originaria, prima che la corte interna fosse completamente saturata di depositi e magazzini come ci si presenta oggi e di concepire una nuova configurazione di quello che diventa un isolato urbano integrato nel tessuto storico, e nodo strutturante per un’area più vasta. Lavorando sulla residenza occorre mettere in primo piano il protagonista dell’architettura che si va a progettare: l’uomo. Per questo la scala urbana e la dimensione umana devono essere concepite parallelamente e la progettazione della cellula di base che si struttura secondo le modalità premesse di flessibilità e sostenibilità si sovrappone all’obiettivo di individuare all’interno del vuoto urbano, una nuova densità, dove il dialogo tra pubblico e privato sia il presupposto per lo sviluppo di un piano integrato e dinamico.
Resumo:
Il lavoro svolto nella presente tesi di laurea si sviluppa all’interno del progetto di ricerca europeo SmooHs (Smart Monitoring of Historic Structures-Monitoraggio intelligente di edifici e strutture storiche) nell’ambito del 7 Programma Quadro della Commissione Europea. Gli edifici storici sono caratterizzati da elementi architettonici, materiali e soluzioni progettuali uniche e pertanto da valorizzare. Al fine si salvaguardare tali beni storici si richiede una conoscenza approfondita dei processi di deterioramento, legati spesso a fattori ambientali, e una loro rilevazione immediata. Il monitoraggio continuo dei possibili parametri che influenzano i suddetti processi può contribuire significativamente, ma un’applicazione estesa di questa tecnica è finora fallita a causa dei costi elevati di sistemi completi di monitoraggio; per questo sono stati osservati solitamente pochi parametri. L’obiettivo del progetto prevede lo sviluppo di strumenti di monitoraggio e diagnostica competitivi per gli specialisti nel settore che vada al di là del mero accumulo di dati. La normativa, in particolare le Linee Guida per l’applicazione al patrimonio culturale della normativa tecnica di cui all’Ordinanza PCM-3274 del 2005, evidenziano l’importanza di raggiungere un elevato livello di informazione dell’oggetto e del suo comportamento strutturale attraverso un percorso conoscitivo pluriramificato. “Si ha pertanto la necessità di affinare tecniche di analisi ed interpretazione dei manufatti storici mediante fasi conoscitive dal diverso grado di attendibilità, anche in relazione al loro impatto. La conoscenza può infatti essere conseguita con diversi livelli di approfondimento, in funzione dell’accuratezza delle operazioni di rilievo, delle ricerche storiche e delle indagini sperimentali” (Linee guida per l’applicazione all patrimonio culturale della normativa tecnica di cui all’ordinanza PCM-3274, 2005). Per quanto riguarda la caratterizzazione meccanica dei materiali, la normativa cita “Tecniche diagnostiche non distruttive di tipo indiretto, quali prove soniche ed ultrasoniche, consentono di valutare l’omogeneità dei parametri meccanici nelle diverse parti della costruzione, ma non forniscono stime quantitative attendibili dei loro valori, in quanto essi vengono desunti dalla misura di altre grandezze”. Non viene identificata una procedura univoca di prove non distruttive per ciascuna tipologia edilizia, pertanto ci domandiamo quale sia la procedura più idonea da utilizzare, considerando il tipo di risultato che si vuole ottenere. Si richiedono quindi degli studi di fattibilità di diverse tecniche non distruttive, soprattutto tecniche per immagini che diano un risultato più immediato da comprendere. Per questo scopo è stato impostato un programma di ricerca per valutare l’efficacia di una tecnica non distruttiva, la tomografia sonica, su provini in muratura costruiti nei laboratori del LaRM (Laboratorio di Resistenza dei Materiali del DISTART dell’Università di Bologna), reputando questa la strada da percorrere verso una diagnostica strutturale sempre più dettagliata. I provini in muratura di laterizio PNDE e PNDF, presentano al loro interno dei difetti (in polistirolo espanso) di geometria e posizione nota e diverse tessiture murarie (muratura di laterizio tradizionale e muratura a sacco). Nel capitolo 2 vengono descritte le caratteristiche e le basi teoriche delle prove soniche e di altre tecniche non distruttive, al fine di poterne fare un confronto. La tomografia sonica è definita e sono illustrate le sue peculiarità; vengono inoltre riportati alcuni esempi di applicazioni della stessa su strutture storiche lignee e murarie. Nel capitolo 3 sono presentati i provini oggetto di studio ed introdotto qualche accenno sulla natura delle murature di laterizio. Sono specificati i corsi e le sezioni verticali sui quali viene sperimentata la tomografia; essi hanno precise caratteristiche che permettono di eseguire una sperimentazione mirata all’individuazione di anomalie in una sezione e al riconoscimento di diverse tessiture murarie. Nel capitolo 4 è illustrata la procedura di acquisizione dei dati in laboratorio e di rielaborazione degli stessi nella fase di post-processing. Dopo aver scelto, in base alla risoluzione, la distanza che intercorre tra le stazioni di misura, sono stati progettati i vari percorsi uscenti da ogni stazione trasmittente, andando a definire i ray-paths delle sezioni sia orizzontali che verticali. I software per il calcolo dei tempi di volo (in ambiente LabView) e per l’inversione degli stessi (Geotom) sono presentati e vengono definite le istruzioni per l’utilizzo. Il capitolo 5 assieme al capitolo 6, mostra i risultati ottenuti dall’inversione dei tempi di volo. Per i diversi corsi orizzontali e sezioni verticali sono riportate le mappe di velocità ottenute al variare di diversi parametri di settaggio impostati nel software tomografico. Le immagini tomografiche evidenziano le caratteristiche interne delle sezioni studiate, in base alla risoluzione geometrica della tecnica. Nel capitolo 7 e 8 sono mostrati i risultati delle prove soniche dirette applicate sia sui corsi verticali sia sulle sezioni verticali. Le stazioni di misura considerate sono le stesse utilizzate per la tomografia. Il capitolo 9 riporta il confronto tra le mappe di velocità prodotte dalla tomografia sonica e gli istogrammi delle velocità registrate nelle prove soniche dirette. Si evidenziano le differenze nell’individuazione di difetti tra due metodologie differenti. Infine sono riportate le conclusioni sul lavoro svolto. I limiti e i vantaggi della tecnica tomografica vengono desunti dai risultati ottenuti per varie tipologie di sezioni, a confronto anche con risultati di prove soniche dirette. Ciò ci porta a definire la fattibilità di utilizzo della tomografia sonica nella diagnosi delle strutture in muratura.
Resumo:
Con il termine Smart Grid si intende una rete urbana capillare che trasporta energia, informazione e controllo, composta da dispositivi e sistemi altamente distribuiti e cooperanti. Essa deve essere in grado di orchestrare in modo intelligente le azioni di tutti gli utenti e dispositivi connessi al fine di distribuire energia in modo sicuro, efficiente e sostenibile. Questo connubio fra ICT ed Energia viene comunemente identificato anche con il termine Smart Metering, o Internet of Energy. La crescente domanda di energia e l’assoluta necessità di ridurre gli impatti ambientali (pacchetto clima energia 20-20-20 [9]), ha creato una convergenza di interessi scientifici, industriali e politici sul tema di come le tecnologie ICT possano abilitare un processo di trasformazione strutturale di ogni fase del ciclo energetico: dalla generazione fino all’accumulo, al trasporto, alla distribuzione, alla vendita e, non ultimo, il consumo intelligente di energia. Tutti i dispositivi connessi, diventeranno parte attiva di un ciclo di controllo esteso alle grandi centrali di generazione così come ai comportamenti dei singoli utenti, agli elettrodomestici di casa, alle auto elettriche e ai sistemi di micro-generazione diffusa. La Smart Grid dovrà quindi appoggiarsi su una rete capillare di comunicazione che fornisca non solo la connettività fra i dispositivi, ma anche l’abilitazione di nuovi servizi energetici a valore aggiunto. In questo scenario, la strategia di comunicazione sviluppata per lo Smart Metering dell’energia elettrica, può essere estesa anche a tutte le applicazioni di telerilevamento e gestione, come nuovi contatori dell’acqua e del gas intelligenti, gestione dei rifiuti, monitoraggio dell’inquinamento dell’aria, monitoraggio del rumore acustico stradale, controllo continuo del sistema di illuminazione pubblico, sistemi di gestione dei parcheggi cittadini, monitoraggio del servizio di noleggio delle biciclette, ecc. Tutto ciò si prevede possa contribuire alla progettazione di un unico sistema connesso, dove differenti dispositivi eterogenei saranno collegati per mettere a disposizione un’adeguata struttura a basso costo e bassa potenza, chiamata Metropolitan Mesh Machine Network (M3N) o ancora meglio Smart City. Le Smart Cities dovranno a loro volta diventare reti attive, in grado di reagire agli eventi esterni e perseguire obiettivi di efficienza in modo autonomo e in tempo reale. Anche per esse è richiesta l’introduzione di smart meter, connessi ad una rete di comunicazione broadband e in grado di gestire un flusso di monitoraggio e controllo bi-direzionale esteso a tutti gli apparati connessi alla rete elettrica (ma anche del gas, acqua, ecc). La M3N, è un’estensione delle wireless mesh network (WMN). Esse rappresentano una tecnologia fortemente attesa che giocherà un ruolo molto importante nelle futura generazione di reti wireless. Una WMN è una rete di telecomunicazione basata su nodi radio in cui ci sono minimo due percorsi che mettono in comunicazione due nodi. E’ un tipo di rete robusta e che offre ridondanza. Quando un nodo non è più attivo, tutti i rimanenti possono ancora comunicare tra di loro, direttamente o passando da uno o più nodi intermedi. Le WMN rappresentano una tipologia di rete fondamentale nel continuo sviluppo delle reti radio che denota la divergenza dalle tradizionali reti wireless basate su un sistema centralizzato come le reti cellulari e le WLAN (Wireless Local Area Network). Analogamente a quanto successo per le reti di telecomunicazione fisse, in cui si è passati, dalla fine degli anni ’60 ai primi anni ’70, ad introdurre schemi di rete distribuite che si sono evolute e man mano preso campo come Internet, le M3N promettono di essere il futuro delle reti wireless “smart”. Il primo vantaggio che una WMN presenta è inerente alla tolleranza alla caduta di nodi della rete stessa. Diversamente da quanto accade per una rete cellulare, in cui la caduta di una Base Station significa la perdita di servizio per una vasta area geografica, le WMN sono provviste di un’alta tolleranza alle cadute, anche quando i nodi a cadere sono più di uno. L'obbiettivo di questa tesi è quello di valutare le prestazioni, in termini di connettività e throughput, di una M3N al variare di alcuni parametri, quali l’architettura di rete, le tecnologie utilizzabili (quindi al variare della potenza, frequenza, Building Penetration Loss…ecc) e per diverse condizioni di connettività (cioè per diversi casi di propagazione e densità abitativa). Attraverso l’uso di Matlab, è stato quindi progettato e sviluppato un simulatore, che riproduce le caratteristiche di una generica M3N e funge da strumento di valutazione delle performance della stessa. Il lavoro è stato svolto presso i laboratori del DEIS di Villa Grifone in collaborazione con la FUB (Fondazione Ugo Bordoni).
Resumo:
Il lavoro valuta le prestazioni di 14 stati membri dell'Unione Europea, la quale attraverso la strategia Europa 2020 propone il raggiungimento di 8 target fondamentali per una crescita intelligente, sostenibile e inclusiva entro il 2020. I target riguardano l'occupazione, il tasso d'istruzione superiore, la percentuale di energia rinnovabile, il consumo energetico, le emissioni di gas serra, la spesa in ricerca e sviluppo, la povertà , il prematuro abbandono scolastico. A tali target corrispondono indicatori che sono annualmente censiti attraverso le autorità statistiche nazionali ed Eurostat. La misura della performance degli Stati è stata effettuata mediante il calcolo della distanza dal target di ciascun paese negli anni compresi tra il 2000 e il 2009. In particolare si è effettuato, adattandolo alle esigenze del lavoro, il calcolo della distanza euclidea e della distanza di Mahalanobis. Con le limitazioni dovute alla qualità dei dati disponibili e ad una difficoltà oggettiva di stabilire una linea di base, il lavoro ha permesso di dare un giudizio alla qualità dello sforzo compiuto da ciascun paese per raggiungere i target, fornendo un quadro analitico e articolato dei rapporti che intercorrono tra i diversi indicatori. In particolare è stato realizzato un modello relazionale basato su quattro indicatori che sono risultati essere correlati e legati da relazioni di tipo causale. I risultati possono essere sintetizzati come segue. La strategia Europa 2020 sembra partire da buone basi in quanto si è potuto osservare che in generale tutti gli stati membri osservati, Europa a 15, mostrano avere un miglioramento verso i loro rispettivi target dal 2005. Durante gli anni osservati si è notato che il range temporale 2005 e 2008 sembra essere stato il periodo dove gli stati hanno rallentato maggiormente la loro crescita di performance, con poi un buon miglioramento nell'anno finale. Questo miglioramento è stato indagato ed è risultato essere coincidente con l'anno di inizio della crisi economica. Inoltre si sono osservate buone relazioni tra il GDP e gli indicatori che hanno contribuito alla diminuzione delle performance, ma il range di riferimento non molto ampio, non ha permesso di definire la reale correlazione tra il GDP e il consumo energetico ed il GDP e l'investimento in ricerca e sviluppo.
Resumo:
"I computer del nuovo millennio saranno sempre più invisibili, o meglio embedded, incorporati agli oggetti, ai mobili, anche al nostro corpo. L'intelligenza elettronica sviluppata su silicio diventerà sempre più diffusa e ubiqua. Sarà come un'orchestra di oggetti interattivi, non invasivi e dalla presenza discreta, ovunque". [Mark Weiser, 1991] La visione dell'ubiquitous computing, prevista da Weiser, è ormai molto vicina alla realtà e anticipa una rivoluzione tecnologica nella quale l'elaborazione di dati ha assunto un ruolo sempre più dominante nella nostra vita quotidiana. La rivoluzione porta non solo a vedere l'elaborazione di dati come un'operazione che si può compiere attraverso un computer desktop, legato quindi ad una postazione fissa, ma soprattutto a considerare l'uso della tecnologia come qualcosa di necessario in ogni occasione, in ogni luogo e la diffusione della miniaturizzazione dei dispositivi elettronici e delle tecnologie di comunicazione wireless ha contribuito notevolmente alla realizzazione di questo scenario. La possibilità di avere a disposizione nei luoghi più impensabili sistemi elettronici di piccole dimensioni e autoalimentati ha contribuito allo sviluppo di nuove applicazioni, tra le quali troviamo le WSN (Wireless Sensor Network), ovvero reti formate da dispositivi in grado di monitorare qualsiasi grandezza naturale misurabile e inviare i dati verso sistemi in grado di elaborare e immagazzinare le informazioni raccolte. La novità introdotta dalle reti WSN è rappresentata dalla possibilità di effettuare monitoraggi con continuità delle più diverse grandezze fisiche, il che ha consentito a questa nuova tecnologia l'accesso ad un mercato che prevede una vastità di scenari indefinita. Osservazioni estese sia nello spazio che nel tempo possono essere inoltre utili per poter ricavare informazioni sull'andamento di fenomeni naturali che, se monitorati saltuariamente, non fornirebbero alcuna informazione interessante. Tra i casi d'interesse più rilevanti si possono evidenziare: - segnalazione di emergenze (terremoti, inondazioni) - monitoraggio di parametri difficilmente accessibili all'uomo (frane, ghiacciai) - smart cities (analisi e controllo di illuminazione pubblica, traffico, inquinamento, contatori gas e luce) - monitoraggio di parametri utili al miglioramento di attività produttive (agricoltura intelligente, monitoraggio consumi) - sorveglianza (controllo accessi ad aree riservate, rilevamento della presenza dell'uomo) Il vantaggio rappresentato da un basso consumo energetico, e di conseguenza un tempo di vita della rete elevato, ha come controparte il non elevato range di copertura wireless, valutato nell'ordine delle decine di metri secondo lo standard IEEE 802.15.4. Il monitoraggio di un'area di grandi dimensioni richiede quindi la disposizione di nodi intermedi aventi le funzioni di un router, il cui compito sarà quello di inoltrare i dati ricevuti verso il coordinatore della rete. Il tempo di vita dei nodi intermedi è di notevole importanza perché, in caso di spegnimento, parte delle informazioni raccolte non raggiungerebbero il coordinatore e quindi non verrebbero immagazzinate e analizzate dall'uomo o dai sistemi di controllo. Lo scopo di questa trattazione è la creazione di un protocollo di comunicazione che preveda meccanismi di routing orientati alla ricerca del massimo tempo di vita della rete. Nel capitolo 1 vengono introdotte le WSN descrivendo caratteristiche generali, applicazioni, struttura della rete e architettura hardware richiesta. Nel capitolo 2 viene illustrato l'ambiente di sviluppo del progetto, analizzando le piattaforme hardware, firmware e software sulle quali ci appoggeremo per realizzare il progetto. Verranno descritti anche alcuni strumenti utili per effettuare la programmazione e il debug della rete. Nel capitolo 3 si descrivono i requisiti di progetto e si realizza una mappatura dell'architettura finale. Nel capitolo 4 si sviluppa il protocollo di routing, analizzando i consumi e motivando le scelte progettuali. Nel capitolo 5 vengono presentate le interfacce grafiche utilizzate utili per l'analisi dei dati. Nel capitolo 6 vengono esposti i risultati sperimentali dell'implementazione fissando come obiettivo il massimo lifetime della rete.
Resumo:
Nell’attuale contesto, caratterizzato da un’elevata attenzione alla qualità e alla sicurezza degli alimenti e alle soluzioni tese a garantirli, l’implementazione di sistemi microelettronici per il controllo del prodotto attraverso supporti miniaturizzati e a basso costo può risultare un’opportunità strategica. Oggetto della ricerca di dottorato sono stati lo studio dell’utilizzo di sensori e strumentazione innovativi per la misurazione ed il controllo di parametri ambientali di conservazione di prodotti alimentari e per la loro identificazione mediante la tecnologia della radiofrequenza. Allo scopo è stato studiato il contesto in cui operano gli attori principali della filiera agroalimentare ed è stata sviluppata un’idea di etichetta progettata per essere in grado di emettere attivamente segnale di allarme in caso di necessità (etichetta RFID intelligente semi-passiva). Il prototipo di chip, realizzato in via sperimentale, è stato validato positivamente, sia come strumento di misura, sia in termini di prestazione nel caso studio del monitoraggio della conservazione di un prodotto alimentare in condizioni controllate di temperatura e radiazione luminosa. Le significative evidenze analitiche di reazioni di degradazione dello stato qualitativo del prodotto, quali analisi di pH e colore, raccolte durante il periodo di osservazione di 64 giorni, hanno trovato riscontro con le misure rilevate dal chip prototipo. I risultati invitano ad individuare un partner industriale, con il quale sperimentare l’applicazione della tecnologia proposta.