938 resultados para analytical source model
Resumo:
Dans cette thèse de sociologie du droit, nous étudions l'influence du droit de l'État sur les sujets de droit. Notre hypothèse générale est que les intermédiaires du droit de l'État contribuent de façon importante à façonner le« rapport au droit» des sujets de droit. C'est-à-dire qu'ils auraient une incidence sur la construction de la relation d'influence du droit sur ces acteurs sociaux et, par là, un effet marqué sur la « légitimité empirique » du droit. Par leurs pratiques professionnelles les intermédiaires du droit auraient une incidence notable, quoique non exclusive, sur les formes concrètes de «rapports au droit» des sujets de droit. Dans l'étude de ce phénomène, nous comparons empiriquement les liens existant entre différents « rapports au droit » des sujets de droit et un droit caractérisé par une rationalité juridique fort différente selon qu'il aurait été porté par un avocat ou un médiateur. Ces deux groupes de professionnels sont les intermédiaires du droit qui font 1’objet de notre observation, laquelle n'est ni générale, ni globale, mais spécifique au divorce, géographiquement localisée à Montréal et historiquement située au début des années 1990. L'intérêt de cette période pour une étude de l'influence du droit sur les sujets de droit est qu'elle constitue un moment unique de l'histoire à Montréal. À cette époque, les différences entre les pratiques professionnelles des avocats et des médiateurs auraient été les plus extrêmes, ce qui favorise un travail de comparaison d'autant plus éclairant. En effet, au début des années 1990, après une dizaine d'années d'expérience, le Service de médiation à la famille de Montréal avait réussi à assurer une solide pratique professionnelle. Par ailleurs, la pratique professionnelle des avocats dans le domaine du divorce était déjà fort « modernisée », mais elle demeurait encore très peu influencée par la médiation familiale. Puisque le « rapport au droit » des personnes qui ont consulté ces intermédiaires du droit en vue de leur divorce est au cœur de 1 'étude, c'est auprès d'eux que nous avons réalisé des entretiens, et c'est l'analyse de ces entretiens qui permet de comprendre leur « rapport au droit». La sociologie de Max Weber est la perspective scientifique dans laquelle nous avons inscrit notre recherche. Une telle ambition exigeait que nous ne restions pas confinée aux seuls concepts les plus populaires. Par conséquent, une partie importante de cette thèse est consacrée à une présentation substantielle de la sociologie wébérienne. Sur cette base, nous avons construit notre stratégie d'enquête et nos instruments d'analyse idéal typiques. Non seulement il n'y a pas, chez Weber, de théorie systémique générale composée de lois explicatives des relations sociales, mais il n'y a pas non plus de modèle de cadre d'analyse particulier préfabriqué qui serait constitué comme un «prêt-à-porter» applicable en vue de réaliser des recherches empiriques, que ce soit dans le domaine du droit ou dans n'importe quel autre domaine d'activité humaine. En revanche, la sociologie wébérienne fournit plusieurs séries de repères conceptuels. Ils permettent d'organiser la recherche empirique sans jamais limiter les objets d'enquêtes possibles, ni l'imagination du chercheur, en autant que celui-ci a pour but de comprendre l'action sociale en l'interprétant et, par-là, de l'expliquer causalement dans son déroulement et ses effets. C'est là le projet de connaissance que Weber désigne par « sociologie ». Il vise ce projet de connaissance, non pas de manière générale et globale, mais toujours de manière particulière selon les domaines d'activité, les lieux, les époques, les sphères de valeurs, etc. Dans cette thèse, nous proposons un cadre d'analyse qui peut servir à poser et à approfondir toutes sortes de questions sur le droit et son influence, sans jamais qu'il soit considéré comme un système de lois à la manière du droit positif. Ce cadre d'analyse vise à appréhender le droit comme une sorte de relation sociale que l'on peut comprendre sociologiquement en considérant, notamment, les représentations juridiques des différentes catégories d'acteurs sociaux. C'est là la première, non pas la seule, condition à rencontrer en vue de respecter les exigences de la connaissance empirique du droit parce que le « droit empirique » ne se trouve pas dans la règle de droit positif. Il se trouve là où il est « porté » par des êtres humains et, en particulier, par des groupes d'humains qui détiennent une importante dose d'influence sociale. Nous souhaitons que cette étude, grâce à 1 'immense apport de la sociologie de Max Weber, contribue à la compréhension sociologique d'un aspect du « droit empirique» de l’État contemporain.
Conventional and Reciprocal Approaches to the Forward and Inverse Problems of Electroencephalography
Resumo:
Le problème inverse en électroencéphalographie (EEG) est la localisation de sources de courant dans le cerveau utilisant les potentiels de surface sur le cuir chevelu générés par ces sources. Une solution inverse implique typiquement de multiples calculs de potentiels de surface sur le cuir chevelu, soit le problème direct en EEG. Pour résoudre le problème direct, des modèles sont requis à la fois pour la configuration de source sous-jacente, soit le modèle de source, et pour les tissues environnants, soit le modèle de la tête. Cette thèse traite deux approches bien distinctes pour la résolution du problème direct et inverse en EEG en utilisant la méthode des éléments de frontières (BEM): l’approche conventionnelle et l’approche réciproque. L’approche conventionnelle pour le problème direct comporte le calcul des potentiels de surface en partant de sources de courant dipolaires. D’un autre côté, l’approche réciproque détermine d’abord le champ électrique aux sites des sources dipolaires quand les électrodes de surfaces sont utilisées pour injecter et retirer un courant unitaire. Le produit scalaire de ce champ électrique avec les sources dipolaires donne ensuite les potentiels de surface. L’approche réciproque promet un nombre d’avantages par rapport à l’approche conventionnelle dont la possibilité d’augmenter la précision des potentiels de surface et de réduire les exigences informatiques pour les solutions inverses. Dans cette thèse, les équations BEM pour les approches conventionnelle et réciproque sont développées en utilisant une formulation courante, la méthode des résidus pondérés. La réalisation numérique des deux approches pour le problème direct est décrite pour un seul modèle de source dipolaire. Un modèle de tête de trois sphères concentriques pour lequel des solutions analytiques sont disponibles est utilisé. Les potentiels de surfaces sont calculés aux centroïdes ou aux sommets des éléments de discrétisation BEM utilisés. La performance des approches conventionnelle et réciproque pour le problème direct est évaluée pour des dipôles radiaux et tangentiels d’excentricité variable et deux valeurs très différentes pour la conductivité du crâne. On détermine ensuite si les avantages potentiels de l’approche réciproquesuggérés par les simulations du problème direct peuvent êtres exploités pour donner des solutions inverses plus précises. Des solutions inverses à un seul dipôle sont obtenues en utilisant la minimisation par méthode du simplexe pour à la fois l’approche conventionnelle et réciproque, chacun avec des versions aux centroïdes et aux sommets. Encore une fois, les simulations numériques sont effectuées sur un modèle à trois sphères concentriques pour des dipôles radiaux et tangentiels d’excentricité variable. La précision des solutions inverses des deux approches est comparée pour les deux conductivités différentes du crâne, et leurs sensibilités relatives aux erreurs de conductivité du crâne et au bruit sont évaluées. Tandis que l’approche conventionnelle aux sommets donne les solutions directes les plus précises pour une conductivité du crâne supposément plus réaliste, les deux approches, conventionnelle et réciproque, produisent de grandes erreurs dans les potentiels du cuir chevelu pour des dipôles très excentriques. Les approches réciproques produisent le moins de variations en précision des solutions directes pour différentes valeurs de conductivité du crâne. En termes de solutions inverses pour un seul dipôle, les approches conventionnelle et réciproque sont de précision semblable. Les erreurs de localisation sont petites, même pour des dipôles très excentriques qui produisent des grandes erreurs dans les potentiels du cuir chevelu, à cause de la nature non linéaire des solutions inverses pour un dipôle. Les deux approches se sont démontrées également robustes aux erreurs de conductivité du crâne quand du bruit est présent. Finalement, un modèle plus réaliste de la tête est obtenu en utilisant des images par resonace magnétique (IRM) à partir desquelles les surfaces du cuir chevelu, du crâne et du cerveau/liquide céphalorachidien (LCR) sont extraites. Les deux approches sont validées sur ce type de modèle en utilisant des véritables potentiels évoqués somatosensoriels enregistrés à la suite de stimulation du nerf médian chez des sujets sains. La précision des solutions inverses pour les approches conventionnelle et réciproque et leurs variantes, en les comparant à des sites anatomiques connus sur IRM, est encore une fois évaluée pour les deux conductivités différentes du crâne. Leurs avantages et inconvénients incluant leurs exigences informatiques sont également évalués. Encore une fois, les approches conventionnelle et réciproque produisent des petites erreurs de position dipolaire. En effet, les erreurs de position pour des solutions inverses à un seul dipôle sont robustes de manière inhérente au manque de précision dans les solutions directes, mais dépendent de l’activité superposée d’autres sources neurales. Contrairement aux attentes, les approches réciproques n’améliorent pas la précision des positions dipolaires comparativement aux approches conventionnelles. Cependant, des exigences informatiques réduites en temps et en espace sont les avantages principaux des approches réciproques. Ce type de localisation est potentiellement utile dans la planification d’interventions neurochirurgicales, par exemple, chez des patients souffrant d’épilepsie focale réfractaire qui ont souvent déjà fait un EEG et IRM.
Resumo:
L’ingénierie dirigée par les modèles (IDM) est un paradigme d’ingénierie du logiciel bien établi, qui préconise l’utilisation de modèles comme artéfacts de premier ordre dans les activités de développement et de maintenance du logiciel. La manipulation de plusieurs modèles durant le cycle de vie du logiciel motive l’usage de transformations de modèles (TM) afin d’automatiser les opérations de génération et de mise à jour des modèles lorsque cela est possible. L’écriture de transformations de modèles demeure cependant une tâche ardue, qui requiert à la fois beaucoup de connaissances et d’efforts, remettant ainsi en question les avantages apportés par l’IDM. Afin de faire face à cette problématique, de nombreux travaux de recherche se sont intéressés à l’automatisation des TM. L’apprentissage de transformations de modèles par l’exemple (TMPE) constitue, à cet égard, une approche prometteuse. La TMPE a pour objectif d’apprendre des programmes de transformation de modèles à partir d’un ensemble de paires de modèles sources et cibles fournis en guise d’exemples. Dans ce travail, nous proposons un processus d’apprentissage de transformations de modèles par l’exemple. Ce dernier vise à apprendre des transformations de modèles complexes en s’attaquant à trois exigences constatées, à savoir, l’exploration du contexte dans le modèle source, la vérification de valeurs d’attributs sources et la dérivation d’attributs cibles complexes. Nous validons notre approche de manière expérimentale sur 7 cas de transformations de modèles. Trois des sept transformations apprises permettent d’obtenir des modèles cibles parfaits. De plus, une précision et un rappel supérieurs à 90% sont enregistrés au niveau des modèles cibles obtenus par les quatre transformations restantes.
Resumo:
Diese Arbeit umfaßt das elektromechanische Design und die Designoptimierung von weit durchstimmbaren optischen multimembranbasierten Bauelementen, mit vertikal orientierten Kavitäten, basierend auf der Finiten Element Methode (FEM). Ein multimembran InP/Luft Fabry-Pérot optischer Filter wird dargestellt und umfassend analysiert. In dieser Arbeit wird ein systematisches strukturelles Designverfahren dargestellt. Genaue analytische elektromechanischer Modelle für die Bauelemente sind abgeleitet worden. Diese können unschätzbare Werkzeuge sein, um am Anfang der Designphase schnell einen klaren Einblick zur Verfügung zu stellen. Mittels des FEM Programms ist der durch die nicht-lineare Verspannung hervorgerufene versteifende Effekt nachgeforscht und sein Effekt auf die Verlängerung der mechanischen Durchstimmungsstrecke der Bauelemente demonstriert worden. Interessant war auch die Beobachtung, dass die normierte Relation zwischen Ablenkung und Spannung ein unveränderliches Profil hat. Die Deformation der Membranflächen der in dieser Arbeit dargestellten Bauelementformen erwies sich als ein unerwünschter, jedoch manchmal unvermeidbarer Effekt. Es zeigt sich aber, dass die Wahl der Größe der strukturellen Dimensionen den Grad der Membrandeformation im Falle der Aktuation beeinflusst. Diese Arbeit stellt ein elektromechanisches in FEMLAB implementierte quasi-3D Modell, das allgemein für die Modellierung dünner Strukturen angewendet werden kann, dar; und zwar indem man diese als 2D-Objekte betrachtet und die dritte Dimension als eine konstante Größe (z.B. die Schichtdicke) oder eine Größe, welche eine mathematische Funktion ist, annimmt. Diese Annahme verringert drastisch die Berechnungszeit sowie den erforderlichen Arbeitsspeicherbedarf. Weiter ist es für die Nachforschung des Effekts der Skalierung der durchstimmbaren Bauelemente verwendet worden. Eine neuartige Skalierungstechnik wurde abgeleitet und verwendet. Die Ergebnisse belegen, dass das daraus resultierende, skalierte Bauelement fast genau die gleiche mechanische Durchstimmung wie das unskalierte zeigt. Die Einbeziehung des Einflusses von axialen Verspannungen und Gradientenverspannungen in die Berechnungen erforderte die Änderung der Standardimplementierung des 3D Mechanikberechnungsmodus, der mit der benutzten FEM Software geliefert wurde. Die Ergebnisse dieser Studie zeigen einen großen Einfluss der Verspannung auf die Durchstimmungseigenschaften der untersuchten Bauelemente. Ferner stimmten die Ergebnisse der theoretischen Modellrechnung mit den experimentellen Resultaten sehr gut überein.
Resumo:
Neste trabalho, propõe-se uma melhoria na estratégia de escalonamento baseada em pesos das classes de tráfego em redes óticas passivas Ethernet – EPON, de modo a não penalizar demasiadamente a classe tipo melhor esforço (BE). Como suporte, desenvolveu-se um modelo híbrido analítico/simulado para análise de desempenho do fluxo de subida, baseado no atraso total de quadros. A modelagem foi feita utilizando Redes de Petri Coloridas Estocásticas (Stochastic Colored Petri Nets - SCPN) da qual se obtém, por simulação, o tamanho médio da fila que posteriormente é usado para, analiticamente, obter-se o atraso total. Não obstante ao crescimento de aplicações multimídia em tempo real, no ano de 2010, o tráfego tradicional na Internet (navegação web, email, mensagens instantâneas) classificado como melhor esforço ainda foi responsável, sozinho (excluindo transferência de arquivos P2P), por valores em torno de 18% do tráfego na Internet. Somando-se a este percentual as aplicações P2P, que também não são essencialmente sensíveis ao atraso, têm-se uma participação de 58% (o tráfego P2P foi no ano de 2010 responsável por aproximadamente 40% do volume total de informações trafegadas na Internet). Mesmo em previsões feitas para o ano de 2014 o tráfego BE ainda representará aproximadamente 40% do volume total de dados a serem trafegados nas redes IPs mundiais. Estes números demonstram que a preocupação com este tipo de tráfego não pode ser relegada a uma importância secundária em detrimento às aplicações que exigem maior qualidade de serviço. Tomando como base o escalonamento IPACT (Interleaved Polling with Adapting Cycle Time) esta dissertação demonstra que é possível, através da melhoria proposta, obter atrasos menores no tráfego de melhor esforço, sem que as classes de tráfego prioritárias ultrapassem as especificações de atraso recomendadas para cada uma destas.
Resumo:
O uso da técnica da camada equivalente na interpolação de dados de campo potencial permite levar em consideração que a anomalia, gravimétrica ou magnética, a ser interpolada é uma função harmônica. Entretanto, esta técnica tem aplicação computacional restrita aos levantamentos com pequeno número de dados, uma vez que ela exige a solução de um problema de mínimos quadrados com ordem igual a este número. Para viabilizar a aplicação da técnica da camada equivalente aos levantamentos com grande número de dados, nós desenvolvemos o conceito de observações equivalentes e o método EGTG, que, respectivamente, diminui a demanda em memória do computador e otimiza as avaliações dos produtos internos inerentes à solução dos problemas de mínimos quadrados. Basicamente, o conceito de observações equivalentes consiste em selecionar algumas observações, entre todas as observações originais, tais que o ajuste por mínimos quadrados, que ajusta as observações selecionadas, ajusta automaticamente (dentro de um critério de tolerância pré-estabelecido) todas as demais que não foram escolhidas. As observações selecionadas são denominadas observações equivalentes e as restantes são denominadas observações redundantes. Isto corresponde a partir o sistema linear original em dois sistemas lineares com ordens menores. O primeiro com apenas as observações equivalentes e o segundo apenas com as observações redundantes, de tal forma que a solução de mínimos quadrados, obtida a partir do primeiro sistema linear, é também a solução do segundo sistema. Este procedimento possibilita ajustar todos os dados amostrados usando apenas as observações equivalentes (e não todas as observações originais) o que reduz a quantidade de operações e a utilização de memória pelo computador. O método EGTG consiste, primeiramente, em identificar o produto interno como sendo uma integração discreta de uma integral analítica conhecida e, em seguida, em substituir a integração discreta pela avaliação do resultado da integral analítica. Este método deve ser aplicado quando a avaliação da integral analítica exigir menor quantidade de cálculos do que a exigida para computar a avaliação da integral discreta. Para determinar as observações equivalentes, nós desenvolvemos dois algoritmos iterativos denominados DOE e DOEg. O primeiro algoritmo identifica as observações equivalentes do sistema linear como um todo, enquanto que o segundo as identifica em subsistemas disjuntos do sistema linear original. Cada iteração do algoritmo DOEg consiste de uma aplicação do algoritmo DOE em uma partição do sistema linear original. Na interpolação, o algoritmo DOE fornece uma superfície interpoladora que ajusta todos os dados permitindo a interpolação na forma global. O algoritmo DOEg, por outro lado, otimiza a interpolação na forma local uma vez que ele emprega somente as observações equivalentes, em contraste com os algoritmos existentes para a interpolação local que empregam todas as observações. Os métodos de interpolação utilizando a técnica da camada equivalente e o método da mínima curvatura foram comparados quanto às suas capacidades de recuperar os valores verdadeiros da anomalia durante o processo de interpolação. Os testes utilizaram dados sintéticos (produzidos por modelos de fontes prismáticas) a partir dos quais os valores interpolados sobre a malha regular foram obtidos. Estes valores interpolados foram comparados com os valores teóricos, calculados a partir do modelo de fontes sobre a mesma malha, permitindo avaliar a eficiência do método de interpolação em recuperar os verdadeiros valores da anomalia. Em todos os testes realizados o método da camada equivalente recuperou mais fielmente o valor verdadeiro da anomalia do que o método da mínima curvatura. Particularmente em situações de sub-amostragem, o método da mínima curvatura se mostrou incapaz de recuperar o valor verdadeiro da anomalia nos lugares em que ela apresentou curvaturas mais pronunciadas. Para dados adquiridos em níveis diferentes o método da mínima curvatura apresentou o seu pior desempenho, ao contrário do método da camada equivalente que realizou, simultaneamente, a interpolação e o nivelamento. Utilizando o algoritmo DOE foi possível aplicar a técnica da camada equivalente na interpolação (na forma global) dos 3137 dados de anomalia ar-livre de parte do levantamento marinho Equant-2 e 4941 dados de anomalia magnética de campo total de parte do levantamento aeromagnético Carauari-Norte. Os números de observações equivalentes identificados em cada caso foram, respectivamente, iguais a 294 e 299. Utilizando o algoritmo DOEg nós otimizamos a interpolação (na forma local) da totalidade dos dados de ambos os levantamentos citados. Todas as interpolações realizadas não seriam possíveis sem a aplicação do conceito de observações equivalentes. A proporção entre o tempo de CPU (rodando os programas no mesmo espaço de memória) gasto pelo método da mínima curvatura e pela camada equivalente (interpolação global) foi de 1:31. Esta razão para a interpolação local foi praticamente de 1:1.
Resumo:
Pós-graduação em Química - IQ
Resumo:
Materiais estruturais utilizados no projeto de equipamentos e instalações industriais podem apresentar mudança de seu comportamento à fratura quando se varia a temperatura. Este tipo de comportamento caracteriza-se pela existência de uma curva de transição, onde 3 regiões ficam bem definidas: os patamares inferior e superior e a região de transição. Na região de transição, os resultados experimentais apresentam alto espalhamento e são bastante dependentes da geometria ensaiada. Para solucionar este problema, foi desenvolvido um modelo analítico experimental, que resultou na edição da norma ASTM E1921-97. O trabalho inclui um estudo da influência de diversas rotas de tratamentos térmicos aplicadas em um aço 4130 utilizado pela indústria aeronáutica, um aço de qualidade API utilizado pela indústria petrolífera e um aço da classe A516 atualmente utilizado pela indústria nacional de vasos de pressão, na microestrutura, propriedades mecânicas de tração e tenacidade à fratura. Os resultados mostraram que o aço 4130 A450, apresentou a melhor correlação entre resistência e tenacidade entre as microestruturas pesquisadas. Este comportamento deve estar associado a rota de tratamento térmico aplicada a esta condição. O tratamento de austêmpera possibilita a formação de bainita que, tradicionalmente é conhecida por apresentar elevados valores de tenacidade. O método proposto pela ASTM pode ser considerado viável para as diversas microestruturas pesquisadas ampliando a aplicação da metodologia que recomenda o ensaio apenas para aços ferríticos. No entanto, a metodologia da Curva Mestra em materiais tratados termicamente deve ser conduzida de forma a se estabelecer parâmetros que considerem as modificações microestruturais sofridas pelo material.
Resumo:
Pós-graduação em Engenharia Mecânica - FEG
Resumo:
Pós-graduação em Engenharia Mecânica - FEIS
Resumo:
Binary stars are frequent in the universe, with about 50% of the known main sequence stars being located at a multiple star system (Abt, 1979). Even though, they are universally thought as second rate sites for the location of exo-planets and the habitable zone, due to the difficulties of detection and high perturbation that could prevent planet formation and long term stability. In this work we show that planets in binary star systems can have regular orbits and remain on the habitable zone. We introduce a stability criterium based on the solution of the restricted three body problem and apply it to describe the short period planar and three-dimentional stability zones of S-type orbits around each star of the Alpha Centauri system. We develop as well a semi-analytical secular model to study the long term dynamics of fictional planets in the habitable zone of those stars and we verify that planets on the habitable zone would be in regular orbits with any eccentricity and with inclination to the binary orbital plane up until 35 degrees. We show as well that the short period oscillations on the semi-major axis is 100 times greater than the Earth's, but at all the time the planet would still be found inside the Habitable zone.
Resumo:
By the end of the 19th century, geodesy has contributed greatly to the knowledge of regional tectonics and fault movement through its ability to measure, at sub-centimetre precision, the relative positions of points on the Earth’s surface. Nowadays the systematic analysis of geodetic measurements in active deformation regions represents therefore one of the most important tool in the study of crustal deformation over different temporal scales [e.g., Dixon, 1991]. This dissertation focuses on motion that can be observed geodetically with classical terrestrial position measurements, particularly triangulation and leveling observations. The work is divided into two sections: an overview of the principal methods for estimating longterm accumulation of elastic strain from terrestrial observations, and an overview of the principal methods for rigorously inverting surface coseismic deformation fields for source geometry with tests on synthetic deformation data sets and applications in two different tectonically active regions of the Italian peninsula. For the long-term accumulation of elastic strain analysis, triangulation data were available from a geodetic network across the Messina Straits area (southern Italy) for the period 1971 – 2004. From resulting angle changes, the shear strain rates as well as the orientation of the principal axes of the strain rate tensor were estimated. The computed average annual shear strain rates for the time period between 1971 and 2004 are γ˙1 = 113.89 ± 54.96 nanostrain/yr and γ˙2 = -23.38 ± 48.71 nanostrain/yr, with the orientation of the most extensional strain (θ) at N140.80° ± 19.55°E. These results suggests that the first-order strain field of the area is dominated by extension in the direction perpendicular to the trend of the Straits, sustaining the hypothesis that the Messina Straits could represents an area of active concentrated deformation. The orientation of θ agree well with GPS deformation estimates, calculated over shorter time interval, and is consistent with previous preliminary GPS estimates [D’Agostino and Selvaggi, 2004; Serpelloni et al., 2005] and is also similar to the direction of the 1908 (MW 7.1) earthquake slip vector [e.g., Boschi et al., 1989; Valensise and Pantosti, 1992; Pino et al., 2000; Amoruso et al., 2002]. Thus, the measured strain rate can be attributed to an active extension across the Messina Straits, corresponding to a relative extension rate ranges between < 1mm/yr and up to ~ 2 mm/yr, within the portion of the Straits covered by the triangulation network. These results are consistent with the hypothesis that the Messina Straits is an important active geological boundary between the Sicilian and the Calabrian domains and support previous preliminary GPS-based estimates of strain rates across the Straits, which show that the active deformation is distributed along a greater area. Finally, the preliminary dislocation modelling has shown that, although the current geodetic measurements do not resolve the geometry of the dislocation models, they solve well the rate of interseismic strain accumulation across the Messina Straits and give useful information about the locking the depth of the shear zone. Geodetic data, triangulation and leveling measurements of the 1976 Friuli (NE Italy) earthquake, were available for the inversion of coseismic source parameters. From observed angle and elevation changes, the source parameters of the seismic sequence were estimated in a join inversion using an algorithm called “simulated annealing”. The computed optimal uniform–slip elastic dislocation model consists of a 30° north-dipping shallow (depth 1.30 ± 0.75 km) fault plane with azimuth of 273° and accommodating reverse dextral slip of about 1.8 m. The hypocentral location and inferred fault plane of the main event are then consistent with the activation of Periadriatic overthrusts or other related thrust faults as the Gemona- Kobarid thrust. Then, the geodetic data set exclude the source solution of Aoudia et al. [2000], Peruzza et al. [2002] and Poli et al. [2002] that considers the Susans-Tricesimo thrust as the May 6 event. The best-fit source model is then more consistent with the solution of Pondrelli et al. [2001], which proposed the activation of other thrusts located more to the North of the Susans-Tricesimo thrust, probably on Periadriatic related thrust faults. The main characteristics of the leveling and triangulation data are then fit by the optimal single fault model, that is, these results are consistent with a first-order rupture process characterized by a progressive rupture of a single fault system. A single uniform-slip fault model seems to not reproduce some minor complexities of the observations, and some residual signals that are not modelled by the optimal single-fault plane solution, were observed. In fact, the single fault plane model does not reproduce some minor features of the leveling deformation field along the route 36 south of the main uplift peak, that is, a second fault seems to be necessary to reproduce these residual signals. By assuming movements along some mapped thrust located southward of the inferred optimal single-plane solution, the residual signal has been successfully modelled. In summary, the inversion results presented in this Thesis, are consistent with the activation of some Periadriatic related thrust for the main events of the sequence, and with a minor importance of the southward thrust systems of the middle Tagliamento plain.
Resumo:
L'obiettivo della ricerca è di compiere un'analisi dell'impatto della cosiddetta cultura "open" alla luce dell'attuale condizione del World Wide Web. Si prenderà in considerazione, in particolare, la genesi del movimento a partire dalle basi di cultura hacker e la relativa evoluzione nella filosofia del software libero, con il fine ultimo di identificare il ruolo attuale del modello open source nello scenario esistente. L'introduzione al concetto di Open Access completerà la ricerca anche considerando la recente riaffermazione della conoscenza come bene comune all'interno della Società dell'Informazione
Resumo:
A method for automatic scaling of oblique ionograms has been introduced. This method also provides a rejection procedure for ionograms that are considered to lack sufficient information, depicting a very good success rate. Observing the Kp index of each autoscaled ionogram, can be noticed that the behavior of the autoscaling program does not depend on geomagnetic conditions. The comparison between the values of the MUF provided by the presented software and those obtained by an experienced operator indicate that the procedure developed for detecting the nose of oblique ionogram traces is sufficiently efficient and becomes much more efficient as the quality of the ionograms improves. These results demonstrate the program allows the real-time evaluation of MUF values associated with a particular radio link through an oblique radio sounding. The automatic recognition of a part of the trace allows determine for certain frequencies, the time taken by the radio wave to travel the path between the transmitter and receiver. The reconstruction of the ionogram traces, suggests the possibility of estimating the electron density between the transmitter and the receiver, from an oblique ionogram. The showed results have been obtained with a ray-tracing procedure based on the integration of the eikonal equation and using an analytical ionospheric model with free parameters. This indicates the possibility of applying an adaptive model and a ray-tracing algorithm to estimate the electron density in the ionosphere between the transmitter and the receiver An additional study has been conducted on a high quality ionospheric soundings data set and another algorithm has been designed for the conversion of an oblique ionogram into a vertical one, using Martyn's theorem. This allows a further analysis of oblique soundings, throw the use of the INGV Autoscala program for the automatic scaling of vertical ionograms.
Resumo:
Polymerbasierte Kolloide mit Groen im Nanometerbereich werden als aussichts- reiche Kandidaten fur die Verkapselung und den Transport von pharmazeutischen Wirkstoen angesehen. Daher ist es wichtig die physikalischen Prozesse, die die Bil- dung, Struktur und kinetische Stabilitat der polymerbasierten Kolloide beein ussen, besser zu verstehen. Allerdings ist die Untersuchung dieser Prozesse fur nanome- tergroe Objekte kompliziert und erfordert fortgeschrittene Techniken. In dieser Arbeit beschreibe ich Untersuchungen, bei denen Zwei-Farben-Fluoreszenzkreuz- korrelationsspektroskopie (DC FCCS) genutzt wurde, um Informationen uber die Wechselwirkung und den Austausch von dispergierten, nanometergroen Kolloiden zu bekommen. Zunachst habe ich den Prozess der Polymernanopartikelherstellung aus Emul- sionstropfen untersucht, welcher einen der am haugsten angewendeten Prozesse der Nanopartikelformulierung darstellt. Ich konnte zeigen, dass mit DC FCCS eindeutig und direkt Koaleszenz zwischen Emulsionstropfen gemessen werden kann. Dies ist von Interesse, da Koaleszenz als Hauptgrund fur die breite Groenverteilung der nalen Nanopartikel angesehen wird. Weiterhin habe ich den Austausch von Mizellen bildenden Molekulen zwischen amphiphilen Diblock Kopolymermizellen untersucht. Als Modellsystem diente ein Linear-Burste Block Kopolymer, welches Mizellen mit einer dichten und kurzen Korona bildet. Mit Hilfe von DC FCCS konnte der Austausch in verschiedenen Losungsmitteln und bei verschiedenen Temperaturen beobachtet werden. Ich habe herausgefunden, dass in Abhangigkeit der Qualitat des Losungsmittels die Zeit des Austausches um Groenordnungen verschoben werden kann, was eine weitreichende Einstellung der Austauschkinetik ermoglicht. Eine Eigenschaft die all diese Kolloide gemeinsam haben ist ihre Polydispersitat. Im letzten Teil meiner Arbeit habe ich am Beispiel von Polymeren als Modellsystem untersucht, welchen Eekt Polydispersitat und die Art der Fluoreszenzmarkierung auf FCS Experimente haben. Eine Anpassung des klassischen FCS Modells kann die FCS Korrelationskurven dieser Systeme beschreiben. Die Richtigkeit meines Ansatzes habe ich mit dem Vergleich zur Gel-Permeations-Chromatographie und Brownschen Molekulardynamiksimulationen bestatigt.