963 resultados para Cochran regressione lineare stima inferenza statistica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oggi, grazie al continuo progredire della tecnologia, in tutti i sistemi di produzione industriali si trova almeno un macchinario che permette di automatizzare determinate operazioni. Alcuni di questi macchinari hanno un sistema di visione industriale (machine vision), che permette loro di osservare ed analizzare ciò che li circonda, dotato di algoritmi in grado di operare alcune scelte in maniera automatica. D’altra parte, il continuo progresso tecnologico che caratterizza la realizzazione di sensori di visione, ottiche e, nell’insieme, di telecamere, consente una sempre più precisa e accurata acquisizione della scena inquadrata. Oggi, esigenze di mercato fanno si che sia diventato necessario che macchinari dotati dei moderni sistemi di visione permettano di fare misure morfometriche e dimensionali non a contatto. Ma le difficoltà annesse alla progettazione ed alla realizzazione su larga scala di sistemi di visione industriali che facciano misure dimensioni non a contatto, con sensori 2D, fanno sì che in tutto il mondo il numero di aziende che producono questo tipo di macchinari sia estremamente esiguo. A fronte di capacità di calcolo avanzate, questi macchinari necessitano dell’intervento di un operatore per selezionare quali parti dell’immagine acquisita siano d’interesse e, spesso, anche di indicare cosa misurare in esse. Questa tesi è stata sviluppata in sinergia con una di queste aziende, che produce alcuni macchinari per le misure automatiche di pezzi meccanici. Attualmente, nell’immagine del pezzo meccanico vengono manualmente indicate le forme su cui effettuare misure. Lo scopo di questo lavoro è quello di studiare e prototipare un algoritmo che fosse in grado di rilevare e interpretare forme geometriche note, analizzando l’immagine acquisita dalla scansione di un pezzo meccanico. Le difficoltà affrontate sono tipiche dei problemi del “mondo reale” e riguardano tutti i passaggi tipici dell’elaborazione di immagini, dalla “pulitura” dell’immagine acquisita, alla sua binarizzazione fino, ovviamente, alla parte di analisi del contorno ed identificazione di forme caratteristiche. Per raggiungere l’obiettivo, sono state utilizzate tecniche di elaborazione d’immagine che hanno permesso di interpretare nell'immagine scansionata dalla macchina tutte le forme note che ci siamo preposti di interpretare. L’algoritmo si è dimostrato molto robusto nell'interpretazione dei diametri e degli spallamenti trovando, infatti, in tutti i benchmark utilizzati tutte le forme di questo tipo, mentre è meno robusto nella determinazione di lati obliqui e archi di circonferenza a causa del loro campionamento non lineare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wurde das Orientierungsverhalten der Mikrophasenseparation von industriellen und eigens synthetisierten Blockcopolymeren unter Extrusion untersucht.Dabei stellte sich heraus, daß bis auf eine Probe mit hexagonaler Morphologie die Mikrophasenseparationen der untersuchten Systeme unter dem Einfluß der Scherströmung derart in Extrusionsrichtung gedehnt werden, daß eine Art 'pseudo-lamellare' Morphologie entsteht. Aus Röntgenstreumessungen wurde die Güte dieser Orientierung in Form von Ordnungsparametern bestimmt. Dabei zeigte sich, daß der Orientierungsgrad der Proben deutlich von der Scherrate der Extrusion abhängt.Mit Hilfe von Zugversuchen konnte die mechanische Festigkeit der untersuchten Extrudate analysiert werden, wobei sich eine dem Ordnungsgrad analoge Scherratenabhängigkeit zeigte. Somit hat die rheologische Beanspruchung der Materialien einen deutlichen Einfluß auf deren mechanische Festigkeit.Im zweiten Teil der vorliegenden Arbeit wurde die Orientierung und die Reorientierung einer lamellaren Morphologie durch oszillatorische Verscherung mit großen Amplituden (LAOS) untersucht.Bei der Untersuchung des Orientierungsexperimentes zeigte sich, daß die exponentielle Abnahme der relativen Intensität des 3. Obertons (I3/I1) des fouriertransformierten Spektrums des Drehmomentes dazu genutzt werden konnte, um die Kinetik des Orientierungsprozesses zu bestimmen.Bei der Untersuchung des Umorientierungsprozesses konnte gezeigt werden, daß die nicht-lineare mechanische Antwort geeignet ist, um die Entwicklung bimodaler Orientierungsverteilungen zu verfolgen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Änderungen in der Architektur von Polymeren abweichend von einer linearen Kette, beeinflussen deren physikalisch-chemisches Verhalten. Eine mögliche Architektur der verzweigten Moleküle stellen sternförmige Polymere dar. An einem zentralen Molekül als Kern, beispielsweise einem Dendrimer, sind an dessen Endpunkte lineare Polymerketten kovalent gebunden. In dieser Arbeit wurden zwei Problemstellungen behandelt. Zunächst wurde das Verhalten von Sternpolymeren aus Polybutadien in einer Matrix aus linearem Polybutadien mittels Neutronenkleinwinkelstreuung untersucht. Die Molekulargewichte der linaren Ketten wurden so gewählt, daî eines ein kleineres und das zweite ein größeres Molekulargewicht hat, als der leichteste bzw. schwerste Arm der verwendeten Sternpolymere. Neben den Parametern Armanzahl und -gewicht wurde die Konzentrations- und Temperaturabhängig durchgeführt. Die aus diesen Messungen extrahierten Parameter wurden mit den theoretischen Vorhersagen bezüglich des Skalenverhaltens vonSternpolymeren in derartigen Mischungen verglichen. Weiterhin wurde ein Interaktionsparameter bestimmt und in einzelne Anteile verschiedener Arten der Wechselwirkungen zerlegt. Die zweite Fragestellung betraf das Adsorptionsverhalten von Sternpolymeren im Vergleich mit linearen Polymeren. Es wurde die Kinetik der Adsorption mittels Ellipsometrie, die Strukturbildung mit dem Rasterkraftmikroskop und Streuung unter streifendem Einfalluntersucht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die protokollbasierte Medizin stellt einen interdisziplinären Brennpunkt der Informatik dar. Als besonderer Ausschnitt der medizinischen Teilgebiete erlaubt sie die relativ formale Spezifikation von Prozessen in den drei Bereichen der Prävention, Diagnose und Therapie.Letzterer wurde immer besonders fokussiert und gilt seit jeher im Rahmen klinischer Studien als Projektionsfläche für informationstechnologische Konzepte. Die Euphorie der frühen Jahre ernüchtert sich jedoch bei jeder Bilanz. Nur sehr wenige der unzählbaren Projekte haben ihre Routine in der alltäglichen Praxis gefunden. Die meisten Vorhaben sind an der Illusion der vollständigen Berechenbarkeit medizinischer Arbeitsabläufe gescheitert. Die traditionelle Sichtweise der klinischen Praxis beruht auf einer blockorientierten Vorstellung des Therapieausführungsprozesses. Sie entsteht durch seine Zerlegung in einzelne Therapiezweige, welche aus vordefinierten Blöcken zusammengesetzt sind. Diese können sequentiell oder parallel ausgeführt werden und sind selbst zusammengesetzt aus jeweils einer Menge von Elementen,welche die Aktivitäten der untersten Ebene darstellen. Das blockorientierte Aufbaumodell wird ergänzt durch ein regelorientiertes Ablaufmodell. Ein komplexes Regelwerk bestimmt Bedingungen für die zeitlichen und logischen Abhängigkeiten der Blöcke, deren Anordnung durch den Ausführungsprozeß gebildet wird. Die Modellierung der Therapieausführung steht zunächst vor der grundsätzlichen Frage, inwieweit die traditionelle Sichtweise für eine interne Repräsentation geeignet ist. Das übergeordnete Ziel besteht in der Integration der unterschiedlichen Ebenen der Therapiespezifikation. Dazu gehört nicht nur die strukturelle Komponente, sondern vorallem die Ablaufkomponente. Ein geeignetes Regelmodell ist erforderlich, welches den spezifischen Bedürfnissen der Therapieüberwachung gerecht wird. Die zentrale Aufgabe besteht darin, diese unterschiedlichen Ebenen zusammenzuführen. Eine sinnvolle Alternative zur traditionellen Sichtweise liefert das zustandsorientierte Modell des Therapieausführungsprozesses. Das zustandsorientierte Modell beruht auf der Sichtweise, daß der gesamte Therapieausführungsprozeß letztendlich eine lineare Folge von Zuständen beschreibt, wobei jeder Zustandsübergang durch ein Ereignis eingeleitet wird, an bestimmte Bedingungen geknüpft ist und bestimmte Aktionen auslösen kann. Die Parallelität des blockorientierten Modells tritt in den Hintergrund, denn die Menge der durchzuführenden Maßnahmen sind lediglich Eigenschaften der Zustände und keine strukturellen Elemente der Ablaufspezifikation. Zu jedem Zeitpunkt ist genau ein Zustand aktiv, und er repräsentiert eine von endlich vielen klinischen Situationen, mit all ihren spezifischen Aktivitäten und Ausführungsregeln. Die Vorteile des zustandsorientierten Modells liegen in der Integration. Die Grundstruktur verbindet die statische Darstellung der möglichen Phasenanordnungen mit der dynamischen Ausführung aktiver Regeln. Die ursprünglichen Inhalte des blockorientierten Modells werden als gewöhnliche Eigenschaften der Zustände reproduziert und stellen damit nur einen Spezialfall der zustandsbezogenen Sicht dar.Weitere Möglichkeiten für die Anreicherung der Zustände mit zusätzlichen Details sind denkbar wie sinnvoll. Die Grundstruktur bleibt bei jeder Erweiterung jedoch die gleiche. Es ergibt sich ein wiederverwendbares Grundgerüst,ein gemeinsamer Nenner für die Erfüllung der Überwachungsaufgabe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo della tesi è definire un modello e identificare un sistema d’inferenza utile per l’analisi della qualità dei dati. Partendo da quanto descritto in ambito accademico e business, la definizione di un modello facilita l’analisi della qualità, fornendo una descrizione chiara delle tipologie di problemi a cui possono essere soggetti i dati. I diversi lavori in ambito accademico e business saranno confrontati per stabilire quali siano i problemi di qualità più diffusi, in modo da realizzare un modello che sia semplice e riutilizzabile. I sistemi d’inferenza saranno confrontati a livello teorico e pratico per individuare lo strumento più adatto nell’analisi della qualità dei dati in un caso applicativo. Il caso applicativo è caratterizzato da requisiti funzionali e non; il principale requisito funzionale è l’individuazione di problemi di qualità nei dati, mentre quello non funzionale è l’ usabilità dello strumento, per permettere ad un qualunque utente di esprimere dei controlli sulla qualità. Il caso applicativo considera dati di un’enterprise architecture reale ed è stato fornito dall’azienda Imola Informatica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel 2009 l'Italia attraversa la più grande crisi economica del secondo dopoguerra. Lo studio di ciò che accade, attraverso uno sguardo attento alle principali variabili congiunturali prodotte nel paese, è fondamentale per capire quali sono state le cause che hanno portato a questa situazione e per dare la possibilità  ai policy maker di limitarne gli effetti in futuro. Ma l'Italia non è un territorio dalle caratteristiche monolitiche, è un aggregato di parti molto diverse fra loro. Analizzando il territorio italiano come insieme delle sue parti, osserveremo le medesime condizioni economiche ripetersi in ogni territorio del paese? L'esperienza ci suggerisce di no. La tesi vuole evidenziare come e quanto la struttura caratteristica del tessuto produttivo regionale è responsabile anche della performance economica. La tesi è quindi caratterizzata da due parti. Da un lato si è cercato di analizzare quali siano le differenze nei cicli economici regionali, dall'altro, attraverso l'utilizzo di un sistema di valutazione "fuzzy", si è cercato di ricostruire la natura strutturale delle regioni, al fine di determinare quali siano le specializzazioni che ogni territorio è in grado di mettere in campo. La tesi si conclude con un'analisi comparativa degli indici di dissimilarità  tra cicli regionali e nazionale e i livelli sintetici di specializzazione, si è verificato che esiste una relazione forte che lega le caratteristiche strutturali delle regioni alle distanze tra i loro cicli, dimostrando quindi la tesi che struttura regionale e performance economica siano strettamente interconnesse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The present work provides an ex-post assessment of the UK 5-a-day information campaign where the positive effects of information on consumption levels are disentangled from the potentially conflicting price dynamics. A model-based estimate of the counterfactual (no-intervention) scenario is computed using data from the Expenditure and Food Survey between 2002 and 2006. For this purpose fruit and vegetable demand is modelled employing Quadratic Almost Ideal Demand System (QUAIDS) specification with demographic effects and controlling for potential endogeneity of prices and total food expenditure.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

KurzfassungIm Einzugsgebiet der Hunte (NW-Deutsches Becken, Niedersachsen) wurde untersucht, ob die Landschaftsgenese durch tektonische Bewegungen der Oberkruste beeinflußt ist. Krustenbewegungen führten im Bereich einer Hauptschollengrenze zu einer Hebung der weichselzeitlichen Niederterrasse (durchschnittliche Hebungssrate von ~0,5 mm/a über die letzten 12000 Jahre). Tektonischer Einfluß auf die heutige Landoberfläche ist über einem permischen Salzkissen zu verzeichnen, wo sich das Gefälle der holozänen Aue umkehrt. Krustenbewegungen haben mit großer Wahrscheinlichkeit Vorzugsrichtungen verursacht, die an der Tertiärbasis und in der heutigen Landschaft nachweisbar sind (0-5° und 90-95°). Das Abfließen der Hunte nach Norden scheint durch eine aktive, nordwärts gerichtete Kippung des NW-Deutschen Beckens verursacht zu sein. Hohe lineare Korrelationskoeffizienten zwischen Tiefenlage der Tertiärbasis und Höhenlage der heutigen Landoberfläche weisen auf eine aktive Kippung des Beckens hin. Beckensubsidenz hat möglicherweise die Akkumulation der weichselzeitlichen Niederterrasse gesteuert, da eine Übereinstimmung zwischen rezenter Beckensubsidenz und durchschnittlicher Sedimentationsrate des Niederterrassenkörpers besteht. Untersuchungen an einer geschlossenen Hohlform deuten auf eine aktive Sackungsstruktur hin, da sich Anomalien des geologischen Untergrundes mit der topographischen Lage der Struktur decken.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi tratta alcuni dei principali filtri di diffusione non lineari per il problema di denoising di immagini. In particolare pertendo dalla formulazione del problema come minimizzazione di un funzionale introduce modelli allo stato dell'arte come il filtro Lineare, di Perona Malik, alle Variazioni Totali e per Curvatura; infine un nuovo modello diffusivo sviluppato dal prof.Antonio Marquina è per la prima volta applicato al problema di denoising. Seguono numerosi schemi numerici alle differenze finite per risolverli, che generano procedimenti iterativi espliciti, impliciti e AOS. Verrà analizzato per la prima volta per il problema di denoising uno schema conservativo al prim'ordine e di ordine superiore, dopo evere proposto una modifica per rendere idoneo la funzione diffusività. Infine vi è un ampio capitolo con considerazioni numeriche e visive sui risultati sperimentali ottenuti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Presentazione dello sviluppo di un ambiente per il progetto concettuale ed il disegno automatico dei dirigibili: inserendo le specifiche di missione è possibile visualizzare alcuni dati preliminari utili al dimensionamento, alla stima dei pesi, alla definizione dell'apparato propulsivo. L'integrazione con un modello 3D parametrico sviluppato in solidworks permette poi di ottenere un semplice modello del dirigibile da utilizzare come punto di partenza per ulteriori analisi. Sono inclusi alcuni casi di studio in cui si presenta come può essere utilizzato l'ambiente. Vengono inoltre indicati alcuni possibili margini di miglioramento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Carbonsäuren entstehen bei der Reaktion von Alkenen mit den drei wichtigsten atmosphärischen Oxidantien OH, NO3 und O3 vor allem bei der Ozonolyse. Insbesondere die Schwerflüchtigkeit der Dicarbonsäuren führte zu der Annahme, dass sie in der Atmosphäre auch eine organische Nukleation initiieren. Die Arbeit widmet sich der systematischen Untersuchung der Mechanismen in der Ozonolyse, die zur Säurebildung führen, in einem statischen Versuchsreaktor. Um chemischen Vorgänge auf möglichst wenige Reaktionswege einzuschränken, wurden neben kleinen Alkenen der Isoprenchemie schwerpunktmäßig symmetrische unsubstituierte lineare und zyklische Modellverbindungen des Typs R-CH2-CH=CH-CH2-R untersucht. Zum parallelen Nachweis der teilweise dicht beieinander eluierenden Ionen wurden ein zweidimensionales Chromatographieverfahren entwickelt und bedarfsorientiert eine Modifikation des Analysesystems vorgenommen. Zur Beobachtung des Konzentrations-verlaufes wurde ein kontinuierliches Sammelverfahren mit einer Zeitauflösung im Bereich von 2-10 min verwandt. Die Verteilung der Ionen auf Gasphase und Aerosolphase ließ sich durch den Einsatz eines Systems aus Gasphasendenuder und kontinuierlichem Übersättigungsimpaktor für die Partikelphase analysieren. Die Ergebnisse der Untersuchungen führten zum Vorschlag neuer Mechanismen. Ein Criegee Intermediat des Typs RC(O)CHOO* tendiert zu einem Bruch der C-C Bindung zwischen Carbonyloxid und Carbonylgruppe. Über den Hydroperoxidkanal der Ozonolyse entsteht aus einem Criegee Intermediat mit n C-Atomen vom Typ R-CH2-CHOO* in der Gasphase oder nach Hydrolyse nicht nur eine Cn-Säure R-CH2-COOH mit ca. 2-5% Ausbeute, sondern auch eine C(n-1)-Säure R-COOH mit ca. 5-10% Ausbeute, sowie Ameisensäure in Ausbeuten von 5-10%. Für die Bildung der C(n-1)-Säuren wird die Enol-Variante des Hydroperoxidkanals vorgeschlagen. Cn-Säuren werden wahrscheinlich auf mehreren Reaktionswegen parallel gebildet. Es wurden Abhängigkeiten der Ausbeute von Eduktkonzentration, Molekülgröße und Feuchte ermittelt und in primäre und sekundäre Bildungsprozesse unterschieden. Die Ergebnisse dieser Arbeit lassen vermuten, dass Dicarbonsäuren nicht als primäre Verursacher der Nukleation angesehen werden können. Keine Einzelspezies unter den Ozonolyseprodukten kann in allen Fällen die beobachtete Partikelneubildung erklären. Vielmehr muß eine Hydroperoxi-Folgechemie angenommen werden, die in chemischen wie physikalischen Sekundärprozessen zu größeren Molekülen und kleineren Clustern führt, die als Nukleationskeime dienen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

At the light of what happened in 2010 and 2011, a lot of European countries founded themselves in a difficult position where all the credit rating agencies were downgrading debt states. Problem of solvency and guarantees on the states' bond were perceived as too risky for a Monetary Union as Europe is. Fear of a contagion from Greece as well was threatening the other countries as Italy, Spain, Portugal and Ireland; while Germany and France asked for a division between risky and riskless bond in order to feel more safe. Our paper gets inspiration by Roch and Uhlig (2011), it refers to the Argentinian case examined by Arellano (2008) and examine possible interventions as monetization or bailout as proposed by Cole and Kehoe (2000). We propose a model in which a state defaults and cannot repay a fraction of the old bond; but contrary to Roch and Uhlig that where considering a one-time cost of default we consider default as an accumulation of losses, perceived as unpaid fractions of the old debts. Our contributions to literature is that default immediately imply that economy faces a bad period and, accumulating losses, government will be worse-off. We studied a function for this accumulation of debt period by period, in order to get an idea of the magnitude of this waste of resources that economy will face when experiences a default. Our thesis is that bailouts just postpone the day of reckoning (Roch, Uhlig); so it's better to default before accumulate a lot of debts. What Europe need now is the introduction of new reforms in a controlled default where the Eurozone will be saved in its whole integrity and a state could fail with the future promise of a resurrection. As experience show us, governments are not interested into reducing debts since there are ECB interventions. That clearly create a distortion between countries in the same monetary union, giving to the states just an illusion about their future debtor position.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The aim of this work is to carry out an applicative, comparative and exhaustive study between several entropy based indicators of independence and correlation. We considered some indicators characterized by a wide and consolidate literature, like mutual information, joint entropy, relative entropy or Kullback Leibler distance, and others, more recently introduced, like Granger, Maasoumi and racine entropy, also called Sρ, or utilized in more restricted domains, like Pincus approximate entropy or ApEn. We studied the behaviour of such indicators applying them to binary series. The series was designed to simulate a wide range of situations in order to characterize indicators limit and capability and to identify, case by case, the more useful and trustworthy ones. Our target was not only to study if such indicators were able to discriminate between dependence and independence because, especially for mutual information and Granger, Maasoumi and Racine, that was already demonstrated and reported in literature, but also to verify if and how they were able to provide information about structure, complexity and disorder of the series they were applied to. Special attention was paid on Pincus approximate entropy, that is said by the author to be able to provide information regarding the level of randomness, regularity and complexity of a series. By means of a focused and extensive research, we furthermore tried to clear the meaning of ApEn applied to a couple of different series. In such situation the indicator is named in literature as cross-ApEn. The cross-ApEn meaning and the interpretation of its results is often not simple nor univocal and the matter is scarcely delved into by literature, thereby users can easily leaded up to a misleading conclusion, especially if the indicator is employed, as often unfortunately it happens, in uncritical manner. In order to plug some cross-ApEn gaps and limits clearly brought out during the experimentation, we developed and applied to the already considered cases a further indicator we called “correspondence index”. The correspondence index is perfectly integrated into the cross-ApEn computational algorithm and it is able to provide, at least for binary data, accurate information about the intensity and the direction of an eventual correlation, even not linear, existing between two different series allowing, in the meanwhile, to detect an eventual condition of independence between the series themselves.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We propose an extension of the approach provided by Kluppelberg and Kuhn (2009) for inference on second-order structure moments. As in Kluppelberg and Kuhn (2009) we adopt a copula-based approach instead of assuming normal distribution for the variables, thus relaxing the equality in distribution assumption. A new copula-based estimator for structure moments is investigated. The methodology provided by Kluppelberg and Kuhn (2009) is also extended considering the copulas associated with the family of Eyraud-Farlie-Gumbel-Morgenstern distribution functions (Kotz, Balakrishnan, and Johnson, 2000, Equation 44.73). Finally, a comprehensive simulation study and an application to real financial data are performed in order to compare the different approaches.