626 resultados para Decollo atterraggio verticale elica propulsione


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A phytosociological study of the forests from Sierra Maestra is conducted, following the methodology of the Zurich- Montpelier School. They are transformed into a forest typology using the standards of the Institute of Agro-Forestry Research. In general, 35 types and/or subtypes are presented. From this group, the most abundant ones belong to semi-deciduous microphyll forest, followed by those from mangroves and mountain rainforest, respectively. Silvicultural treatments are needed; among them, the protection forests are those found above 800 m asl and mangroves. 

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aanleiding voor het onderzoek Deze scriptie sluit aan bij de afstudeerkring “effectieve verandermanagers”. Aanleiding voor dit onderzoek was de brede vraag “Wat onderscheidt een effectieve veranderingsmanager op het middenniveau in organisaties van een minder effectieve bij het implementeren van veranderingen?” Binnen deze brede vraag past de centrale vraagstelling in dit onderzoek: “Welke neerwaartse activiteiten oefenen middenmanagers uit in een sensemakingproces tijdens een verandering?“ Middenmanager Allereerst definiëren we het begrip ‘middenmanager’. De middenmanager bevindt zich op een kruispunt: In de verticale lijn tussen het topmanagement en de werkvloer, op de horizontale lijn tussen de diverse afdelingen (Nonaka,1994). Ten behoeve van mijn onderzoek sluit ik mij aan bij de positionering van Huy (2001). Hij plaatst de middenmanager 2 lagen onder de CEO en 1 laag boven lijnmedewerkers en professionals. In een veranderingsproces heeft de middenmanager verschillende rollen te vervullen. Deze verschillende rollen zijn, onder anderen, beschreven door Huy (2001) en Quinn (1998). Zij noemen: entrepreneur, communicator en therapeut, stimulator, mentor, innovator, bemiddelaar, producent, bestuurder, coördinator, controleur. De onderzoekers zijn het er over eens dat de middenmanager moet balanceren en doseren in de verschillende rollen om effectief te kunnen zijn in een veranderingsproces. Sensemakingproces Dit onderzoek probeert meer kennis te genereren over welke neerwaartse activiteiten middenmanagers uitoefenen gedurende een sensemakingproces tijdens een verandering. We definiëren het begrip ‘sensemakingproces’. Het sensemakingproces vindt plaats als mensen geconfronteerd worden met boodschappen of gebeurtenissen die nieuw zijn. Door met deze nieuwe informatie te kijken naar de bestaande werkelijkheid, is een bewustwording op gang geholpen die kan leiden tot verandering. Er is nog weinig onderzoek gedaan naar de activiteiten (wat doen middenmanagers op dagelijkse basis) van middenmanagers in sensemakingprocessen. Rouleau & Balogun (2007) hebben dat wel onderzocht en onderscheiden de volgende vier sensegivingactiviteiten: het uitrollen van netwerken; het distribueren van gedachten door het voeren van gesprekken; het identificeren van sociale en culturele systemen. Relevantie onderzoek De externe validiteit van het hierboven genoemde onderzoek van Rouleau & Balogun (2007) is echter beperkt, doordat deze is uitgevoerd onder een kleine populatie in Canada en het Verenigd Koninkrijk. Mijn onderzoek wil een bijdrage leveren aan de toename van de externe validiteit door te verifiëren of de neerwaartse activiteiten van de middenmanager die gevonden zijn in het onderzoek van Rouleau & Balogun (2007) middels een andere onderzoeksmethode en met een andere onderzoekspopulatie (de Nederlandse zorginstelling Tactus). Wat betreft de praktische relevantie kan gezegd worden dat mijn onderzoek meer inzicht geeft aan de middenmanagers in welke activiteiten zij uitvoeren of zouden kunnen uitvoeren. Zij kunnen zich bewust worden van hun mogelijkheden om invloed uit te oefenen op het sensemakingproces van hun medewerkers. Ik verwacht daarmee hun effectiviteit te vergroten. Centrale vraag en deelvragen Bij de centrale vraag kunnen de volgende deelvragen geformuleerd worden: 1. Wat is de rol van middenmanagers in een sensemakingproces tijdens een verandering? 2. Zijn de neerwaartse sensemakingactiviteiten van middenmanagers (uit de studie van Rouleau & Balogun, 2007) ook te identificeren zijn binnen één Nederlandse GGZ-stichting? 3. Zijn er andere neerwaartse sensemakingactiviteiten van middenmanagers te identificeren? Conceptuele model Het model dat de basis is voor de beantwoording van de tweede en derde deelvraag, is gebaseerd op de literatuur. In dit model worden de sensemakingactiviteiten van de middenmanager als een onafhankelijke variabele gezien die direct invloed heeft op het sensemakingproces binnen het team. Daarbij kunnen we enkele mediërende en modererende factoren onderscheiden. Als modererende factor noemen we, ten eerste, de mate waarin voor het teamlid het persoonlijke triggerpoint bereikt is. Hoe dichter genaderd, hoe meer kans op verandering bij dit teamlid (Kloosterboer, 2008). Ten tweede noemen we het sneeuwbaleffect van de positieve feedback (Kelman, 2005): hoe verder in het proces, hoe meer kans op verandering. Tenslotte noemen we als modererende factor het emotiemanagement van de middenmanager. Hoe meer de middenmanager in staat is de balans te vinden, hoe meer kans op verandering (Huy, 2002). Als mediërende factor kunnen we de horizontale sensegiving noemen, ofwel de sensegiving door peers (Balogun & Johnson, 2005). Deze sensegiving kan, los van de sensemakingactiviteiten van de manager een geheel eigen verandering op gang brengen. Het kan dus gezien worden als (een deel van) de verklaring voor het sensemakingproces binnen het team. Dit onderzoek beperkt zich tot het bestuderen van de sensemakingactiviteiten van de middenmanager en hun effect op het sensemakingproces binnen het team. In het onderzoek worden de modererende factoren en de mediërende factor dus niet meegenomen. Onderzoeksopzet Het onderzoek is opgesteld als multiple-case design, toetsend onderzoek. Toetsend, omdat de externe validering van de neerwaartse sensemakingactiviteiten van de middenmanager nog laag is. Het multiple-case design biedt de mogelijkheid om cases met elkaar te vergelijken en bredere steun te vinden voor de geformuleerde proposities. De voorgenomen bronnen waren een (één op één) interview met acht middenmanagers, een groepsinterview met meerdere medewerkers per middenmanager en documenten. De focus in alle interviews was de middenmanager en diens sensemakingactiviteiten. De opgevraagde en aangeleverde documenten zijn echter geen adequate bron van informatie gebleken. Resultaten De eerste deelvraag is beantwoord middels literatuurstudie. De onderzoekers zijn het er over eens dat de middenmanager moet balanceren en doseren in de verschillende rollen om effectief te kunnen zijn in een veranderingsproces. De tweede en derde deelvraag werden beantwoord middels een multiple-case design onderzoek. De resultaten uit dit onderzoek laten zien dat de neerwaartse sensemakingactiviteiten uit de studie van Rouleau & Balogun (2007), inderdaad gevonden werden binnen de genoemde GGZ-stichting. De hypothese is daarmee geverifieerd. De derde conclusie is dat er geen andere neerwaartse sensemakingactiviteiten van middenmanagers zijn geïdentificeerd. Door de verkregen informatie over de vier sensemakingactiviteiten van middenmanager terug te brengen naar handelingsniveau, is zichtbaar geworden dat er verschillen zijn tussen de middenmanagers. De handelingen in gezamenlijkheid leidden wel tot de vier sensemakingactiviteiten. Discussie De casestudie heeft geen nieuwe activiteiten aangetoond. Dat maakt de definiëring van het begrip steviger. Door de vier sensemakingactiviteiten (Rouleau & Balogun, 2007) op een derde niveau op te delen in kleinere eenheden, draagt deze casestudie tevens bij aan een nadere definiëring van het begrip ‘neerwaartse sensemakingactiviteiten van de middenmanager’. Door de verduidelijking van het begrip is kwantitatief onderzoek beter mogelijk, waardoor nu ook causale verbanden tussen de neerwaartse sensemakingactiviteiten van de middenmanager en de sensemaking bij de medewerkers gemaakt kunnen worden. Aanbevelingen In een vervolgonderzoek zou het conceptuele model deels of geheel onderzocht kunnen worden. Met een dergelijk onderzoek, of meerdere onderzoeken zou meer duidelijkheid kunnen komen over de mate van invloed van de mediërende factoren en modererende factor op de sensemaking. Aanbeveling voor verder onderzoek is om de onderzoeksmethode te variëren of uit te breiden met bijvoorbeeld participerende observatie. Dan zou waarneming kunnen plaatsvinden vanuit het perspectief van een betrokkene (Yin, 2003). Een andere methode om de activiteiten beter te inventariseren is het laten bijhouden door managers van hun sensemakingactiviteiten. Een bijkomende propositie die dit onderzoek oplevert, is dat de relatie tussen al dan niet hebben van onbewuste kennis en het beschikken over ervaring als leidinggevende niet gelegd kan worden. Deze propositie zou verder onderzocht kunnen worden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La vallée du fleuve Saint-Laurent, dans l’est du Canada, est l’une des régions sismiques les plus actives dans l’est de l’Amérique du Nord et est caractérisée par de nombreux tremblements de terre intraplaques. Après la rotation rigide de la plaque tectonique, l’ajustement isostatique glaciaire est de loin la plus grande source de signal géophysique dans l’est du Canada. Les déformations et les vitesses de déformation de la croûte terrestre de cette région ont été étudiées en utilisant plus de 14 ans d’observations (9 ans en moyenne) de 112 stations GPS fonctionnant en continu. Le champ de vitesse a été obtenu à partir de séries temporelles de coordonnées GPS quotidiennes nettoyées en appliquant un modèle combiné utilisant une pondération par moindres carrés. Les vitesses ont été estimées avec des modèles de bruit qui incluent les corrélations temporelles des séries temporelles des coordonnées tridimensionnelles. Le champ de vitesse horizontale montre la rotation antihoraire de la plaque nord-américaine avec une vitesse moyenne de 16,8±0,7 mm/an dans un modèle sans rotation nette (no-net-rotation) par rapport à l’ITRF2008. Le champ de vitesse verticale confirme un soulèvement dû à l’ajustement isostatique glaciaire partout dans l’est du Canada avec un taux maximal de 13,7±1,2 mm/an et un affaissement vers le sud, principalement au nord des États-Unis, avec un taux typique de −1 à −2 mm/an et un taux minimum de −2,7±1,4 mm/an. Le comportement du bruit des séries temporelles des coordonnées GPS tridimensionnelles a été analysé en utilisant une analyse spectrale et la méthode du maximum de vraisemblance pour tester cinq modèles de bruit: loi de puissance; bruit blanc; bruit blanc et bruit de scintillation; bruit blanc et marche aléatoire; bruit blanc, bruit de scintillation et marche aléatoire. Les résultats montrent que la combinaison bruit blanc et bruit de scintillation est le meilleur modèle pour décrire la partie stochastique des séries temporelles. Les amplitudes de tous les modèles de bruit sont plus faibles dans la direction nord et plus grandes dans la direction verticale. Les amplitudes du bruit blanc sont à peu près égales à travers la zone d’étude et sont donc surpassées, dans toutes les directions, par le bruit de scintillation et de marche aléatoire. Le modèle de bruit de scintillation augmente l’incertitude des vitesses estimées par un facteur de 5 à 38 par rapport au modèle de bruit blanc. Les vitesses estimées de tous les modèles de bruit sont statistiquement cohérentes. Les paramètres estimés du pôle eulérien de rotation pour cette région sont légèrement, mais significativement, différents de la rotation globale de la plaque nord-américaine. Cette différence reflète potentiellement les contraintes locales dans cette région sismique et les contraintes causées par la différence des vitesses intraplaques entre les deux rives du fleuve Saint-Laurent. La déformation de la croûte terrestre de la région a été étudiée en utilisant la méthode de collocation par moindres carrés. Les vitesses horizontales interpolées montrent un mouvement cohérent spatialement: soit un mouvement radial vers l’extérieur pour les centres de soulèvement maximal au nord et un mouvement radial vers l’intérieur pour les centres d’affaissement maximal au sud, avec une vitesse typique de 1 à 1,6±0,4 mm/an. Cependant, ce modèle devient plus complexe près des marges des anciennes zones glaciaires. Basées selon leurs directions, les vitesses horizontales intraplaques peuvent être divisées en trois zones distinctes. Cela confirme les conclusions d’autres chercheurs sur l’existence de trois dômes de glace dans la région d’étude avant le dernier maximum glaciaire. Une corrélation spatiale est observée entre les zones de vitesses horizontales intraplaques de magnitude plus élevée et les zones sismiques le long du fleuve Saint-Laurent. Les vitesses verticales ont ensuite été interpolées pour modéliser la déformation verticale. Le modèle montre un taux de soulèvement maximal de 15,6 mm/an au sud-est de la baie d’Hudson et un taux d’affaissement typique de 1 à 2 mm/an au sud, principalement dans le nord des États-Unis. Le long du fleuve Saint-Laurent, les mouvements horizontaux et verticaux sont cohérents spatialement. Il y a un déplacement vers le sud-est d’une magnitude d’environ 1,3 mm/an et un soulèvement moyen de 3,1 mm/an par rapport à la plaque l’Amérique du Nord. Le taux de déformation verticale est d’environ 2,4 fois plus grand que le taux de déformation horizontale intraplaque. Les résultats de l’analyse de déformation montrent l’état actuel de déformation dans l’est du Canada sous la forme d’une expansion dans la partie nord (la zone se soulève) et d’une compression dans la partie sud (la zone s’affaisse). Les taux de rotation sont en moyenne de 0,011°/Ma. Nous avons observé une compression NNO-SSE avec un taux de 3.6 à 8.1 nstrain/an dans la zone sismique du Bas-Saint-Laurent. Dans la zone sismique de Charlevoix, une expansion avec un taux de 3,0 à 7,1 nstrain/an est orientée ENE-OSO. Dans la zone sismique de l’Ouest du Québec, la déformation a un mécanisme de cisaillement avec un taux de compression de 1,0 à 5,1 nstrain/an et un taux d’expansion de 1.6 à 4.1 nstrain/an. Ces mesures sont conformes, au premier ordre, avec les modèles d’ajustement isostatique glaciaire et avec la contrainte de compression horizontale maximale du projet World Stress Map, obtenue à partir de la théorie des mécanismes focaux (focal mechanism method).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi ha come scopo principale quello di studiare la funzione di risoluzione e le distribuzioni della distanza equivalente attraverso i risultati ottenuti dal lavoro del gruppo n_TOF al CERN di Ginevra. n_TOF utilizza un fascio di protoni accelerato dal ProtoSincrotrone (PS) del CERN per crearne due di neutroni (uno verticale e uno orizzontale) tramite spallazione. Dopo aver spiegato la tecnica del tempo di volo (TOF) e descritto il set up sperimentale presente al CERN, si esporranno le simulazioni Monte Carlo utilizzate per simulare la produzione dei fasci di neutroni, analizzando nel dettaglio quello diretto verso la prima sala sperimentale. Nella parte finale del lavoro verranno riportati i risultati ottenuti dalle simulazioni; verrà prestata particolare attenzione al confronto tra le conclusioni ottenute da tre gruppi di lavoro differenti nonchè ad una trattazione statistica delle misure effettuate. Si mostrerà inoltre in che modo lo studio effettuato sia importante nella determinazione delle sezioni d'urto nelle reazioni indotte da neutroni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nella presente tesi viene valutata l'efficienza in termini di sicurezza del tratto nord-ovest della Tangenziale delle Biciclette, un percorso ciclabile nel comun di Bologna. Sono stati analizzati dei video (ottenuti dall'apparecchiatura Mobile Eye) che mostrano su cosa l'utente, durante la pedalata, sofferma maggiormente il suo sguardo. Da tali video, quindi, sono state estrapolate informazioni riguardanti il grado di attenzione del ciclista nel percorrere Il tratto di ciclabile. Per questo motivo sono stati analizzati in termini di frame, poi convertiti in secondi, tutti gli elementi capaci di influenzare l'attenzione dell'utente durante la guida: la segnaletica ciclabile (orizzontale e verticale) e l'eventuale presenza di altri pedoni/ciclisti. Con tali dati, inoltre, è stata effettuata un'analisi statistica descrittiva. L'ultima parte è l'analisi cinematica: valutazione dello spazio percorso, del tempo di percorrenza inclusi i tempi di attesa ai semafori rossi e stima della velocità media.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi viene studiato il comportamento visivo del ciclista durante la guida in ambiente urbano diversificato, così da esaminare quali siano le diverse strategie visive adottate dal conducente della bicicletta, in rapporto al contesto in cui si trova. L’analisi del comportamento visivo è stata effettuata mediante l’esecuzione di test su campo, utilizzando il Mobile-Eye Detector, grazie al quale si sono potuti studiare i filmati relativi alle prove compiute da 12 utenti. In seguito ad una fase primaria di elaborazione generale dei dati e di scarto di quelli non ritenuti validi ai fini dello studio, sono state rilevate le fissazioni, le saccadi e i loro relativi tempi. In particolare, studiando i video, si è creato un database in cui vengono analizzate una ad una (fotogramma per fotogramma) le fissazioni e vengono individuati gli elementi ad esse relativi, quali: goal, target, pedoni, ciclisti, veicoli, ammaloramenti della pavimentazione, edifici, segnaletica verticale e orizzontale e intersezioni. Tali elementi sono quelli che attirano maggiormente l'attenzione del ciclista sia da un punto di vista pratico, ai fini della conduzione del mezzo, sia a fini di "svago". Inoltre sono state individuate delle aree di dispersione visiva, ovvero zone su cui è maggiormente ricaduto lo sguardo dei partecipanti all’esperimento: esse sono state studiate, analizzandone le dimensioni e mettendole in relazione col tipo di tragitto e con gli elementi fissati. In questo modo si è cercato di dare un'interpretazione del comportamento visivo del ciclista, sottoposto a tragitti con caratteristiche diverse. In seguito a tale analisi, è stata verificata la compatibilità tra i risultati ottenuti mediante i filmati visionati e le risposte date dai partecipanti nei questionari, proposti al termine della prova, finalizzati ad attestare la percezione soggettiva del ciclista.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con l’ultimo rapporto dell’ IPCC e gli obiettivi che le nazioni del mondo si sono poste in seguito alla conferenza sul clima tenutasi a Parigi nel dicembre del 2015, sono sempre maggiori le soluzioni che si cercano al fine di rendere la società più sostenibile e resiliente per sopportare al meglio le conseguenze dei cambiamenti climatici. Le pareti verdi fanno parte di quelle infrastrutture che si pongono in quest’ottica di sostenibilità e riconciliazione con la natura. In questo elaborato si è cercato di classificare ed esaminare alcune delle tipologie più utilizzate di sistemi di inverdimento verticale, andando ad analizzare la letteratura presente sull’argomento. In particolare ci si è soffermati sugli aspetti di sostenibilità ambientale di tali infrastrutture, con riferimento alla valutazione del loro ciclo di vita e ai benefici da loro apportati, soprattutto quelli riguardanti microclima, diminuzione dell’isola di calore, aumento della biodiversità e miglioramento della qualità dell’aria. Si sono inoltre analizzati aspetti di natura economica e progettuale, mostrando l’utilità di uno strumento quale il “process tree” in quest’ultimo ambito. In seguito, si è preso in considerazione il lavoro del gruppo di ricerca “Terracini in Transizione”, un living-lab della sostenibilità che si svolge nella sede in via Terracini, 28 della facoltà di Ingegneria e Architettura dell’Università di Bologna. Nello specifico si sono osservati alcuni dei progetti e delle analisi svolte dai vari gruppi “pareti verdi” che si sono susseguiti all’interno del corso di “Valorizzazione delle risorse primarie e secondarie” della professoressa Bonoli, tra cui l’analisi di fattibilità di una parete verde da installare nel plesso in via Terracini, l’analisi di substrati di crescita alternativi per pareti vegetate e lo studio, in collaborazione con la facoltà di Agraria, di un substrato innovativo composto da un mix di pannolini usati e fibra di cocco.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Secondo la sismologia storica, Venezia non è mai stata colpita in modo diretto da terremoti nel suo immediato sottosuolo, tuttavia ha riportato diversi danni in occasione di terremoti limitrofi. Nella presente tesi è stato studiato il comportamento sotto sisma di due principali opere veneziane: il ponte degli Scalzi (1934) eretto da E. Miozzi e il ponte della Costituzione (2008), disegnato da S. Calatrava. Accoppiando il modello dinamico dei due ponti con lo spettro di risposta del sito, abbiamo riscontrato che il ponte della Costituzione si colloca nel plateau dello spettro, quindi a periodi per i quali l’accelerazione attesa sulla struttura è massima. Questo non depone a favore della sua sicurezza, considerati anche i problemi statici che la struttura presenta. Il ponte degli Scalzi presenta invece una rigidezza tale da non mostrare amplificazione significativa tra il moto alla fondazione e quello della struttura sovrastante. Le misure di microtremore ambientale effettuate sul sottosuolo in prossimità delle fondazioni dei due ponti hanno mostrato che esso amplifica il moto per risonanza a 0.5 Hz. Questa frequenza è sufficientemente lontana da quelle proprie dei due ponti in esame, per cui si può ritenere che non ne influenzi significativamente la dinamica. Infine, abbiamo osservato che i valori di accelerazione verticale misurati sulla sua sommità del ponte della Costituzione, generati principalmente dal traffico pedonale, superano i limiti di comfort proposti dall’Eurocodice EN UNI 1990.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi si propone in una prima parte di introdurre importanti concetti quali la reale forma della Terra, la definizione di quota ortometrica ed ondulazione geoidica ed i riferimenti rispetto a cui esse si misurano: ciò è necessario per descrivere la quota Helmert, la quota dinamica e la quota normale, ossia i sistemi di quote corrette per gravità attualmente utilizzati. Nella seconda parte le argomentazioni principali verteranno sui sistemi di riferimento verticali dei paesi europei e sull’importanza di unificare i datums in un’unica soluzione. Si elencheranno i vari tentativi di aggregazione dei sistemi che si sono susseguiti nella storia europea, con approfondimenti sulle loro caratteristiche e parametri statistici. Nella terza ed ultima parte, si discuterà della realizzazione più moderna di un sistema di riferimento verticale comune ai paesi comunitari, e si indicheranno le sue differenze rispetto ai sistemi precedenti. Si concluderà l’elaborato con un breve accenno sul futuro dei datum verticali europei.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’analisi chimica delle acque di dieci pozzi, di una località posta a N del fiume Po, (44°54’51.10” N; 11°36’42.49”E), ha mostrato la presenza di acque clorurato sodiche, che si suppone derivino da miscelazione (complessa) tra acque di origine marina (acqua di strato) e un’acqua dolce madre (acqua teorica, end member). Si è tentato di calcolare teoricamente la composizione dell’end member, che è risultata un’acqua bicarbonato sodica, e si è proposta la possibile giacitura delle facies idrochimiche riscontrate all’interno dello schema idrostratigrafico regionale Emiliano-Romagnolo. È emerso che le acque analizzate sono presenti ad una profondità anormalmente ridotta, rispetto alle giaciture degli end members di miscelazione: le acque saline di Ambrogio e Diamantina e l’acqua dolce teorica. Considerando la distribuzione geografica delle acque clorurato sodiche nella regione Emilia-Romagna ed il chiaro rapporto che queste hanno con la verticale degli alti strutturali appenninici sepolti si propone una origine influenzata dalla tettonica per la risalita delle acque studiate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : En raison de sa grande étendue, le Nord canadien présente plusieurs défis logistiques pour une exploitation rentable de ses ressources minérales. La TéléCartographie Prédictive (TCP) vise à faciliter la localisation de gisements en produisant des cartes du potentiel géologique. Des données altimétriques sont nécessaires pour générer ces cartes. Or, celles actuellement disponibles au nord du 60e parallèle ne sont pas optimales principalement parce qu’elles sont dérivés de courbes à équidistance variable et avec une valeur au mètre. Parallèlement, il est essentiel de connaître l'exactitude verticale des données altimétriques pour être en mesure de les utiliser adéquatement, en considérant les contraintes liées à son exactitude. Le projet présenté vise à aborder ces deux problématiques afin d'améliorer la qualité des données altimétriques et contribuer à raffiner la cartographie prédictive réalisée par TCP dans le Nord canadien, pour une zone d’étude située au Territoire du Nord-Ouest. Le premier objectif était de produire des points de contrôles permettant une évaluation précise de l'exactitude verticale des données altimétriques. Le second objectif était de produire un modèle altimétrique amélioré pour la zone d'étude. Le mémoire présente d'abord une méthode de filtrage pour des données Global Land and Surface Altimetry Data (GLA14) de la mission ICESat (Ice, Cloud and land Elevation SATellite). Le filtrage est basé sur l'application d'une série d'indicateurs calculés à partir d’informations disponibles dans les données GLA14 et des conditions du terrain. Ces indicateurs permettent d'éliminer les points d'élévation potentiellement contaminés. Les points sont donc filtrés en fonction de la qualité de l’attitude calculée, de la saturation du signal, du bruit d'équipement, des conditions atmosphériques, de la pente et du nombre d'échos. Ensuite, le document décrit une méthode de production de Modèles Numériques de Surfaces (MNS) améliorés, par stéréoradargrammétrie (SRG) avec Radarsat-2 (RS-2). La première partie de la méthodologie adoptée consiste à faire la stéréorestitution des MNS à partir de paires d'images RS-2, sans point de contrôle. L'exactitude des MNS préliminaires ainsi produits est calculée à partir des points de contrôles issus du filtrage des données GLA14 et analysée en fonction des combinaisons d’angles d'incidences utilisées pour la stéréorestitution. Ensuite, des sélections de MNS préliminaires sont assemblées afin de produire 5 MNS couvrant chacun la zone d'étude en totalité. Ces MNS sont analysés afin d'identifier la sélection optimale pour la zone d'intérêt. Les indicateurs sélectionnés pour la méthode de filtrage ont pu être validés comme performant et complémentaires, à l’exception de l’indicateur basé sur le ratio signal/bruit puisqu’il était redondant avec l’indicateur basé sur le gain. Autrement, chaque indicateur a permis de filtrer des points de manière exclusive. La méthode de filtrage a permis de réduire de 19% l'erreur quadratique moyenne sur l'élévation, lorsque que comparée aux Données d'Élévation Numérique du Canada (DNEC). Malgré un taux de rejet de 69% suite au filtrage, la densité initiale des données GLA14 a permis de conserver une distribution spatiale homogène. À partir des 136 MNS préliminaires analysés, aucune combinaison d’angles d’incidences des images RS-2 acquises n’a pu être identifiée comme étant idéale pour la SRG, en raison de la grande variabilité des exactitudes verticales. Par contre, l'analyse a indiqué que les images devraient idéalement être acquises à des températures en dessous de 0°C, pour minimiser les disparités radiométriques entre les scènes. Les résultats ont aussi confirmé que la pente est le principal facteur d’influence sur l’exactitude de MNS produits par SRG. La meilleure exactitude verticale, soit 4 m, a été atteinte par l’assemblage de configurations de même direction de visées. Par contre, les configurations de visées opposées, en plus de produire une exactitude du même ordre (5 m), ont permis de réduire le nombre d’images utilisées de 30%, par rapport au nombre d'images acquises initialement. Par conséquent, l'utilisation d'images de visées opposées pourrait permettre d’augmenter l’efficacité de réalisation de projets de SRG en diminuant la période d’acquisition. Les données altimétriques produites pourraient à leur tour contribuer à améliorer les résultats de la TCP, et augmenter la performance de l’industrie minière canadienne et finalement, améliorer la qualité de vie des citoyens du Nord du Canada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The consumption of energy on the planet is currently based on fossil fuels. They are responsible for adverse effects on the environment. Renewables propose solutions for this scenario, but must face issues related to the capacity of the power supply. Wind energy offshore emerging as a promising alternative. The speed and stability are greater winds over oceans, but the variability of these may cause inconvenience to the generation of electric power fluctuations. To reduce this, a combination of wind farms geographically distributed was proposed. The greater the distance between them, the lower the correlation between the wind velocity, increasing the likelihood that together achieve more stable power system with less fluctuations in power generation. The efficient use of production capacity of the wind park however, depends on their distribution in marine environments. The objective of this research was to analyze the optimal allocation of wind farms offshore on the east coast of the U.S. by Modern Portfolio Theory. The Modern Portfolio Theory was used so that the process of building portfolios of wind energy offshore contemplate the particularity of intermittency of wind, through calculations of return and risk of the production of wind farms. The research was conducted with 25.934 observations of energy produced by wind farms 11 hypothetical offshore, from the installation of 01 simulated ocean turbine with a capacity of 5 MW. The data show hourly time resolution and covers the period between January 1, 1998 until December 31, 2002. Through the Matlab R software, six were calculated minimum variance portfolios, each for a period of time distinct. Given the inequality of the variability of wind over time, set up four strategies rebalancing to evaluate the performance of the related portfolios, which enabled us to identify the most beneficial to the stability of the wind energy production offshore. The results showed that the production of wind energy for 1998, 1999, 2000 and 2001 should be considered by the portfolio weights calculated for the same periods, respectively. Energy data for 2002 should use the weights derived from the portfolio calculated in the previous time period. Finally, the production of wind energy in the period 1998-2002 should also be weighted by 1/11. It follows therefore that the portfolios found failed to show reduced levels of variability when compared to the individual production of wind farms hypothetical offshore

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une hypothèse souvent faite dans les modèles micro-économique est que les différentes firmes dans une industrie particulière offrent toutes un produit homogène. Les consommateurs ne pouvant pas distinguer le produit des différentes firmes, un prix unique s'établit pour ce marché compétitif. Mais dans la réalité, les produits de firmes différentes ne sont quasi jamais des substituts parfaits. Les biens sont souvent différenciés par une ou plusieurs caractéristiques. Une firme ne peut donc pas produire un bien sans considérer les préférences des consommateurs et les produits qui existent déjà sur ce marché. La décision de ne pas produire ou de produire et les caractéristiques que le produit possédera, s'il est produit, est l'objet d'un vrai choix économique de la part des firmes. Lorsque dans un marché des biens sont produits avec plusieurs caractéristiques différentes, on parle alors de biens différenciés. Deux types de différenciation existent : la différenciation horizontale et la différenciation verticale. D'une part, pour la différenciation verticale, tous les consommateurs sont d'accord pour établir le même ordre de préférence sur l'ensemble des caractéristiques pour un prix égal, il y a un ordre naturel sur l'espace des caractéristiques. À ce titre, un exemple souvent utilisé est la qualité. Un consommateur préférera toujours le bien de meilleure qualité. Par contre, le revenu du consommateur et le prix détermineront son choix final. D'autre part, en ce qui concerne la différenciation horizontale, on note qu'en présence d'un ensemble de caractéristiques données et à prix égal le choix optimal d'un consommateur dépendra de son ordre de préférence sur l'ensemble des caractéristiques du produit et cet ordre diffère d'un consommateur à un autre. Pour mieux comprendre la différence entre les deux types de différenciation, nous allons prendre un exemple commun : deux consommateurs se voient offrir la possibilité d'obtenir une voiture gratuitement. Ils ont le choix entre deux voitures qui diffèrent seulement sur la couleur. Dans le cas de différenciation verticale, les deux consommateurs feront le même choix; dans le cas de différenciation horizontale, le choix de chacun des consommateurs ne sera pas nécessairement le même, le choix dépendra de leur préférence respective sur la couleur…

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le piante e gli animali presentano elementi comuni nel loro sistema di difesa contro gli agenti patogeni, come la sintesi diretta di enzimi idrolitici (chitinasi, glucanasi, proteinasi e ossidasi) e di peptidi antimicrobici (AMPs). Gli AMPs sono peptidi ampiamente espressi negli organismi animali (vertebrati e invertebrati) e nelle piante. Possono essere espressi costitutivamente o rapidamente indotti inseguito ad uno stimolo biotico, a differenti livelli cellulari, per interagire direttamente con l’agente infettante e/o per modulare la risposta immunitaria contro i patogeni. Tali peptidi sono oggi classificati in relazione alle loro caratteristiche biochimiche (carica netta) e/ o alle loro caratteristiche strutturali (composizione amminoacidica, struttura lineare o circolare). In base a queste caratteristiche le molecole possono essere distinte nei seguenti gruppi: 1) peptidi lineari ad alfa elica; 2) peptidi ciclici con β-sheets e due o più ponti disolfuro; 3) peptidi con alfa elica e β-sheets stabilizzati da ponti disolfuro; 4) peptidi con hairpin o loop stabilizzati da ponti disolfuro; 5) peptidi lineari con residui aminoacidici ripetuti, come prolina, glicina, triptofano o istidina; 6) piccoli peptidi con struttura avvolta o con una struttura secondaria non definita. Nonostante la loro diversità strutturale, i peptidi antimicrobici presentano la caratteristica comune di inibire la crescita di un largo spettro di microbi, quali Gram-positivi, Gram-negativi, funghi e in alcuni casi anche virus, tanto da far coniare il termine di “antibiotici naturali”. Negli ultimi anni è notevolmente incrementato l’interesse verso tali peptidi dal momento che dati scientifici hanno mostrato che questi non inducono lo sviluppo di meccanismi di resistenza nei microrganismi patogeni. Gli AMPs quindi potrebbero costituire una valida alternativa non solo in ambito sanitario, per la sostituzione di antibiotici di sintesi chimica e di origine microbiologica, ma potrebbero avere un importante utilizzo in campo industriale e nello sviluppo di nuovi sistemi di conservazione degli alimenti al fine di incrementare la loro “shelf-life”.