973 resultados para Galilei, Galileo, 1564-1642.
Resumo:
In this work we aim to propose a new approach for preliminary epidemiological studies on Standardized Mortality Ratios (SMR) collected in many spatial regions. A preliminary study on SMRs aims to formulate hypotheses to be investigated via individual epidemiological studies that avoid bias carried on by aggregated analyses. Starting from collecting disease counts and calculating expected disease counts by means of reference population disease rates, in each area an SMR is derived as the MLE under the Poisson assumption on each observation. Such estimators have high standard errors in small areas, i.e. where the expected count is low either because of the low population underlying the area or the rarity of the disease under study. Disease mapping models and other techniques for screening disease rates among the map aiming to detect anomalies and possible high-risk areas have been proposed in literature according to the classic and the Bayesian paradigm. Our proposal is approaching this issue by a decision-oriented method, which focus on multiple testing control, without however leaving the preliminary study perspective that an analysis on SMR indicators is asked to. We implement the control of the FDR, a quantity largely used to address multiple comparisons problems in the eld of microarray data analysis but which is not usually employed in disease mapping. Controlling the FDR means providing an estimate of the FDR for a set of rejected null hypotheses. The small areas issue arises diculties in applying traditional methods for FDR estimation, that are usually based only on the p-values knowledge (Benjamini and Hochberg, 1995; Storey, 2003). Tests evaluated by a traditional p-value provide weak power in small areas, where the expected number of disease cases is small. Moreover tests cannot be assumed as independent when spatial correlation between SMRs is expected, neither they are identical distributed when population underlying the map is heterogeneous. The Bayesian paradigm oers a way to overcome the inappropriateness of p-values based methods. Another peculiarity of the present work is to propose a hierarchical full Bayesian model for FDR estimation in testing many null hypothesis of absence of risk.We will use concepts of Bayesian models for disease mapping, referring in particular to the Besag York and Mollié model (1991) often used in practice for its exible prior assumption on the risks distribution across regions. The borrowing of strength between prior and likelihood typical of a hierarchical Bayesian model takes the advantage of evaluating a singular test (i.e. a test in a singular area) by means of all observations in the map under study, rather than just by means of the singular observation. This allows to improve the power test in small areas and addressing more appropriately the spatial correlation issue that suggests that relative risks are closer in spatially contiguous regions. The proposed model aims to estimate the FDR by means of the MCMC estimated posterior probabilities b i's of the null hypothesis (absence of risk) for each area. An estimate of the expected FDR conditional on data (\FDR) can be calculated in any set of b i's relative to areas declared at high-risk (where thenull hypothesis is rejected) by averaging the b i's themselves. The\FDR can be used to provide an easy decision rule for selecting high-risk areas, i.e. selecting as many as possible areas such that the\FDR is non-lower than a prexed value; we call them\FDR based decision (or selection) rules. The sensitivity and specicity of such rule depend on the accuracy of the FDR estimate, the over-estimation of FDR causing a loss of power and the under-estimation of FDR producing a loss of specicity. Moreover, our model has the interesting feature of still being able to provide an estimate of relative risk values as in the Besag York and Mollié model (1991). A simulation study to evaluate the model performance in FDR estimation accuracy, sensitivity and specificity of the decision rule, and goodness of estimation of relative risks, was set up. We chose a real map from which we generated several spatial scenarios whose counts of disease vary according to the spatial correlation degree, the size areas, the number of areas where the null hypothesis is true and the risk level in the latter areas. In summarizing simulation results we will always consider the FDR estimation in sets constituted by all b i's selected lower than a threshold t. We will show graphs of the\FDR and the true FDR (known by simulation) plotted against a threshold t to assess the FDR estimation. Varying the threshold we can learn which FDR values can be accurately estimated by the practitioner willing to apply the model (by the closeness between\FDR and true FDR). By plotting the calculated sensitivity and specicity (both known by simulation) vs the\FDR we can check the sensitivity and specicity of the corresponding\FDR based decision rules. For investigating the over-smoothing level of relative risk estimates we will compare box-plots of such estimates in high-risk areas (known by simulation), obtained by both our model and the classic Besag York Mollié model. All the summary tools are worked out for all simulated scenarios (in total 54 scenarios). Results show that FDR is well estimated (in the worst case we get an overestimation, hence a conservative FDR control) in small areas, low risk levels and spatially correlated risks scenarios, that are our primary aims. In such scenarios we have good estimates of the FDR for all values less or equal than 0.10. The sensitivity of\FDR based decision rules is generally low but specicity is high. In such scenario the use of\FDR = 0:05 or\FDR = 0:10 based selection rule can be suggested. In cases where the number of true alternative hypotheses (number of true high-risk areas) is small, also FDR = 0:15 values are well estimated, and \FDR = 0:15 based decision rules gains power maintaining an high specicity. On the other hand, in non-small areas and non-small risk level scenarios the FDR is under-estimated unless for very small values of it (much lower than 0.05); this resulting in a loss of specicity of a\FDR = 0:05 based decision rule. In such scenario\FDR = 0:05 or, even worse,\FDR = 0:1 based decision rules cannot be suggested because the true FDR is actually much higher. As regards the relative risk estimation, our model achieves almost the same results of the classic Besag York Molliè model. For this reason, our model is interesting for its ability to perform both the estimation of relative risk values and the FDR control, except for non-small areas and large risk level scenarios. A case of study is nally presented to show how the method can be used in epidemiology.
Resumo:
This Doctoral Dissertation is triggered by an emergent trend: firms are increasingly referring to investments in corporate venture capital (CVC) as means to create new competencies and foster the search for competitive advantage through the use of external resources. CVC is generally defined as the practice by non-financial firms of placing equity investments in entrepreneurial companies. Thus, CVC can be interpreted (i) as a key component of corporate entrepreneurship - acts of organizational creation, renewal, or innovation that occur within or outside an existing organization– and (ii) as a particular form of venture capital (VC) investment where the investor is not a traditional and financial institution, but an established corporation. My Dissertation, thus, simultaneously refers to two streams of research: corporate strategy and venture capital. In particular, I directed my attention to three topics of particular relevance for better understanding the role of CVC. In the first study, I moved from the consideration that competitive environments with rapid technological changes increasingly force established corporations to access knowledge from external sources. Firms, thus, extensively engage in external business development activities through different forms of collaboration with partners. While the underlying process common to these mechanisms is one of knowledge access, they are substantially different. The aim of the first study is to figure out how corporations choose among CVC, alliance, joint venture and acquisition. I addressed this issue adopting a multi-theoretical framework where the resource-based view and real options theory are integrated. While the first study mainly looked into the use of external resources for corporate growth, in the second work, I combined an internal and an external perspective to figure out the relationship between CVC investments (exploiting external resources) and a more traditional strategy to create competitive advantage, that is, corporate diversification (based on internal resources). Adopting an explorative lens, I investigated how these different modes to renew corporate current capabilities interact to each other. More precisely, is CVC complementary or substitute to corporate diversification? Finally, the third study focused on the more general field of VC to investigate (i) how VC firms evaluate the patent portfolios of their potential investee companies and (ii) whether the ability to evaluate technology and intellectual property varies depending on the type of investors, in particular for what concern the distinction between specialized versus generalist VCs and independent versus corporate VCs. This topic is motivated by two observations. First, it is not clear yet which determinants of patent value are primarily considered by VCs in their investment decisions. Second, VCs are not all alike in terms of technological experiences and these differences need to be taken into account.
Resumo:
Il presente studio, per ciò che concerne la prima parte della ricerca, si propone di fornire un’analisi che ripercorra il pensiero teorico e la pratica critica di Louis Marin, mettendone in rilievo i caratteri salienti affinché si possa verificare se, nella loro eterogenea interdisciplinarità, non emerga un profilo unitario che consenta di ricomprenderli in un qualche paradigma estetico moderno e/o contemporaneo. Va innanzitutto rilevato che la formazione intellettuale di Marin è avvenuta nell’alveo di quel montante e pervasivo interesse che lo strutturalismo di stampo linguistico seppe suscitare nelle scienze sociali degli anni sessanta. Si è cercato, allora, prima di misurare la distanza che separa l’approccio di Marin ai testi da quello praticato dalla semiotica greimasiana, impostasi in Francia come modello dominante di quella svolta semiotica che ha interessato in quegli anni diverse discipline: dagli studi estetici all’antropologia, dalla psicanalisi alla filosofia. Si è proceduto, quindi, ad un confronto tra l’apparato concettuale elaborato dalla semiotica e alcune celebri analisi del nostro autore – tratte soprattutto da Opacité de la peinture e De la représentation. Seppure Marin non abbia mai articolato sistematicametne i principi teorici che esplicitassero la sua decisa contrapposizione al potente modello greimasiano, tuttavia le reiterate riflessioni intorno ai presupposti epistemologici del proprio modo di interpretare i testi – nonché le analisi di opere pittoriche, narrative e teoriche che ci ha lasciato in centinaia di studi – permettono di definirne una concezione estetica nettamente distinta dalla pratica semio-semantica della scuola di A. J. Greimas. Da questo confronto risulterà, piuttosto, che è il pensiero di un linguista sui generis come E. Benveniste ad avere fecondato le riflessioni di Marin il quale, d’altra parte, ha saputo rielaborare originalmente i contributi fondamentali che Benveniste diede alla costruzione della teoria dell’enunciazione linguistica. Impostando l’equazione: enunciazione linguistica=rappresentazione visiva (in senso lato), Marin diviene l’inventore del dispositivo concettuale e operativo che consentirà di analizzare l’enunciazione visiva: la superficie di rappresentazione, la cornice, lo sguardo, l’iscrizione, il gesto, lo specchio, lo schema prospettico, il trompe-l’oeil, sono solo alcune delle figure in cui Marin vede tradotto – ma in realtà immagina ex novo – quei dispositivi enunciazionali che il linguista aveva individuato alla base della parole come messa in funzione della langue. Marin ha saputo così interpretare, in modo convincente, le opere e i testi della cultura francese del XVII secolo alla quale sono dedicati buona parte dei suoi studi: dai pittori del classicismo (Poussin, Le Brun, de Champaigne, ecc.) agli eruditi della cerchia di Luigi XIV, dai filosofi (soprattutto Pascal), grammatici e logici di Port-Royal alle favole di La Fontaine e Perrault. Ma, come si evince soprattutto da testi come Opacité de la peinture, Marin risulterà anche un grande interprete del rinascimento italiano. In secondo luogo si è cercato di interpretare Le portrait du Roi, il testo forse più celebre dell’autore, sulla scorta dell’ontologia dell’immagine che Gadamer elabora nel suo Verità e metodo, non certo per praticare una riduzione acritica di due concezioni che partono da presupposti divergenti – lo strutturalismo e la critica d’arte da una parte, l’ermeneutica filosofica dall’altra – ma per rilevare che entrambi ricorrono al concetto di rappresentazione intendendolo non tanto come mimesis ma soprattutto, per usare il termine di Gadamer, come repraesentatio. Sia Gadamer che Marin concepiscono la rappresentazione non solo come sostituzione mimetica del rappresentato – cioè nella direzione univoca che dal rappresentato conduce all’immagine – ma anche come originaria duplicazione di esso, la quale conferisce al rappresentato la sua legittimazione, la sua ragione o il suo incremento d’essere. Nella rappresentazione in quanto capace di legittimare il rappresentato – di cui pure è la raffigurazione – abbiamo così rintracciato la cifra comune tra l’estetica di Marin e l’ontologia dell’immagine di Gadamer. Infine, ci è sembrato di poter ricondurre la teoria della rappresentazione di Marin all’interno del paradigma estetico elaborato da Kant nella sua terza Critica. Sebbene manchino in Marin espliciti riferimenti in tal senso, la sua teoria della rappresentazione – in quanto dire che mostra se stesso nel momento in cui dice qualcos’altro – può essere intesa come una riflessione estetica che trova nel sensibile la sua condizione trascendentale di significazione. In particolare, le riflessioni kantiane sul sentimento di sublime – a cui abbiamo dedicato una lunga disamina – ci sono sembrate chiarificatrici della dinamica a cui è sottoposta la relazione tra rappresentazione e rappresentato nella concezione di Marin. L’assolutamente grande e potente come tratti distintivi del sublime discusso da Kant, sono stati da noi considerati solo nella misura in cui ci permettevano di fare emergere la rappresentazione della grandezza e del potere assoluto del monarca (Luigi XIV) come potere conferitogli da una rappresentazione estetico-politica costruita ad arte. Ma sono piuttosto le facoltà in gioco nella nostra più comune esperienza delle grandezze, e che il sublime matematico mette esemplarmente in mostra – la valutazione estetica e l’immaginazione – ad averci fornito la chiave interpretativa per comprendere ciò che Marin ripete in più luoghi citando Pascal: una città, da lontano, è una città ma appena mi avvicino sono case, alberi, erba, insetti, ecc… Così abbiamo applicato i concetti emersi nella discussione sul sublime al rapporto tra la rappresentazione e il visibile rappresentato: rapporto che non smette, per Marin, di riconfigurarsi sempre di nuovo. Nella seconda parte della tesi, quella dedicata all’opera di Bernard Stiegler, il problema della comprensione delle immagini è stato affrontato solo dopo aver posto e discusso la tesi che la tecnica, lungi dall’essere un portato accidentale e sussidiario dell’uomo – solitamente supposto anche da chi ne riconosce la pervasività e ne coglie il cogente condizionamento – deve invece essere compresa proprio come la condizione costitutiva della sua stessa umanità. Tesi che, forse, poteva essere tematizzata in tutta la sua portata solo da un pensatore testimone delle invenzioni tecnico-tecnologiche del nostro tempo e del conseguente e radicale disorientamento a cui esse ci costringono. Per chiarire la propria concezione della tecnica, nel I volume di La technique et le temps – opera alla quale, soprattutto, sarà dedicato il nostro studio – Stiegler decide di riprendere il problema da dove lo aveva lasciato Heidegger con La questione della tecnica: se volgiamo coglierne l’essenza non è più possibile pensarla come un insieme di mezzi prodotti dalla creatività umana secondo un certi fini, cioè strumentalmente, ma come un modo di dis-velamento della verità dell’essere. Posto così il problema, e dopo aver mostrato come i sistemi tecnici tendano ad evolversi in base a tendenze loro proprie che in buona parte prescindono dall’inventività umana (qui il riferimento è ad autori come F. Gille e G. Simondon), Stiegler si impegna a riprendere e discutere i contributi di A. Leroi-Gourhan. È noto come per il paletnologo l’uomo sia cominciato dai piedi, cioè dall’assunzione della posizione eretta, la quale gli avrebbe permesso di liberare le mani prima destinate alla deambulazione e di sviluppare anatomicamente la faccia e la volta cranica quali ondizioni per l’insorgenza di quelle capacità tecniche e linguistiche che lo contraddistinguono. Dei risultati conseguiti da Leroi-Gourhan e consegnati soprattutto in Le geste et la parole, Stiegler accoglie soprattutto l’idea che l’uomo si vada definendo attraverso un processo – ancora in atto – che inizia col primo gesto di esteriorizzazione dell’esperienza umana nell’oggetto tecnico. Col che è già posta, per Stiegler, anche la prima forma di simbolizzazione e di rapporto al tempo che lo caratterizzano ancora oggi. Esteriorità e interiorità dell’uomo sono, per Stiegler, transduttive, cioè si originano ed evolvono insieme. Riprendendo, in seguito, l’anti-antropologia filosofica sviluppata da Heidegger nell’analitica esistenziale di Essere e tempo, Stiegler dimostra che, se si vuole cogliere l’effettività della condizione dell’esistenza umana, è necessaria un’analisi degli oggetti tecnici che però Heidegger relega nella sfera dell’intramondano e dunque esclude dalla temporalità autentica dell’esser-ci. Se è vero che l’uomo – o il chi, come lo chiama Stiegler per distinguerlo dal che-cosa tecnico – trova nell’essere-nel-mondo la sua prima e più fattiva possibilità d’essere, è altrettanto verò che questo mondo ereditato da altri è già strutturato tecnicamente, è già saturo della temporalità depositata nelle protesi tecniche nelle quali l’uomo si esteriorizza, e nelle quali soltanto, quindi, può trovare quelle possibilità im-proprie e condivise (perché tramandate e impersonali) a partire dalle quali poter progettare la propria individuazione nel tempo. Nel percorso di lettura che abbiamo seguito per il II e III volume de La technique et le temps, l’autore è impegnato innanzitutto in una polemica serrata con le analisi fenomenologiche che Husserl sviluppa intorno alla coscienza interna del tempo. Questa fenomenologia del tempo, prendendo ad esame un oggetto temporale – ad esempio una melodia – giunge ad opporre ricordo primario (ritenzione) e ricordo secondario (rimemorazione) sulla base dell’apporto percettivo e immaginativo della coscienza nella costituzione del fenomeno temporale. In questo modo Husserl si preclude la possibilità di cogliere il contributo che l’oggetto tecnico – ad esempio la registrazione analogica di una melodia – dà alla costituzione del flusso temporale. Anzi, Husserl esclude esplicitamente che una qualsiasi coscienza d’immagine – termine al quale Stiegler fa corrispondere quello di ricordo terziario: un testo scritto, una registrazione, un’immagine, un’opera, un qualsiasi supporto memonico trascendente la coscienza – possa rientrare nella dimensione origianaria e costitutiva di tempo. In essa può trovar posto solo la coscienza con i suo vissuti temporali percepiti, ritenuti o ricordati (rimemorati). Dopo un’attenta rilettura del testo husserliano, abbiamo seguito Stiegler passo a passo nel percorso di legittimazione dell’oggetto tecnico quale condizione costitutiva dell’esperienza temporale, mostrando come le tecniche di registrazione analogica di un oggetto temporale modifichino, in tutta evidenza, il flusso ritentivo della coscienza – che Husserl aveva supposto automatico e necessitante – e con ciò regolino, conseguente, la reciproca permeabilità tra ricordo primario e secondario. L’interpretazione tecnica di alcuni oggetti temporali – una foto, la sequenza di un film – e delle possibilità dispiegate da alcuni dispositivi tecnologici – la programmazione e la diffusione audiovisiva in diretta, l’immagine analogico-digitale – concludono questo lavoro richiamando l’attenzione sia sull’evidenza prodotta da tali esperienze – evidenza tutta tecnica e trascendente la coscienza – sia sul sapere tecnico dell’uomo quale condizione – trascendentale e fattuale al tempo stesso – per la comprensione delle immagini e di ogni oggetto temporale in generale. Prendendo dunque le mosse da una riflessione, quella di Marin, che si muove all’interno di una sostanziale antropologia filosofica preoccupata di reperire, nell’uomo, le condizioni di possibilità per la comprensione delle immagini come rappresentazioni – condizione che verrà reperità nella sensibilità o nell’aisthesis dello spettatore – il presente lavoro passerà, dunque, a considerare la riflessione tecno-logica di Stiegler trovando nelle immagini in quanto oggetti tecnici esterni all’uomo – cioè nelle protesi della sua sensibilità – le condizioni di possibilità per la comprensione del suo rapporto al tempo.
Resumo:
Synchronization is a key issue in any communication system, but it becomes fundamental in the navigation systems, which are entirely based on the estimation of the time delay of the signals coming from the satellites. Thus, even if synchronization has been a well known topic for many years, the introduction of new modulations and new physical layer techniques in the modern standards makes the traditional synchronization strategies completely ineffective. For this reason, the design of advanced and innovative techniques for synchronization in modern communication systems, like DVB-SH, DVB-T2, DVB-RCS, WiMAX, LTE, and in the modern navigation system, like Galileo, has been the topic of the activity. Recent years have seen the consolidation of two different trends: the introduction of Orthogonal Frequency Division Multiplexing (OFDM) in the communication systems, and of the Binary Offset Carrier (BOC) modulation in the modern Global Navigation Satellite Systems (GNSS). Thus, a particular attention has been given to the investigation of the synchronization algorithms in these areas.
Resumo:
The PhD activity described in the document is part of the Microsatellite and Microsystem Laboratory of the II Faculty of Engineering, University of Bologna. The main objective is the design and development of a GNSS receiver for the orbit determination of microsatellites in low earth orbit. The development starts from the electronic design and goes up to the implementation of the navigation algorithms, covering all the aspects that are involved in this type of applications. The use of GPS receivers for orbit determination is a consolidated application used in many space missions, but the development of the new GNSS system within few years, such as the European Galileo, the Chinese COMPASS and the Russian modernized GLONASS, proposes new challenges and offers new opportunities to increase the orbit determination performances. The evaluation of improvements coming from the new systems together with the implementation of a receiver that is compatible with at least one of the new systems, are the main activities of the PhD. The activities can be divided in three section: receiver requirements definition and prototype implementation, design and analysis of the GNSS signal tracking algorithms, and design and analysis of the navigation algorithms. The receiver prototype is based on a Virtex FPGA by Xilinx, and includes a PowerPC processor. The architecture follows the software defined radio paradigm, so most of signal processing is performed in software while only what is strictly necessary is done in hardware. The tracking algorithms are implemented as a combination of Phase Locked Loop and Frequency Locked Loop for the carrier, and Delay Locked Loop with variable bandwidth for the code. The navigation algorithm is based on the extended Kalman filter and includes an accurate LEO orbit model.
Resumo:
Welche Literatur liegt im Trend? Welche Aktionen und Instrumente bietet der Markt, um Bücher an den Leser zu vermitteln? Wie lässt sich das gegenwärtige Literaturverständnis beschreiben – auch in Abgrenzung und im Vergleich zu den etablierten Literaturtheorien? Diese allgemeinen Fragen wurden in der vorliegenden Arbeit spezialisiert und auf Schwerpunkte konzentriert. In den Vordergrund rückte – unter dem Aspekt des Zeitgeistphänomens – die junge deutsche Literatur, auf die bei diesem Projekt aus persönlichem Interesse heraus der Fokus gelegt wurde. Erforscht wurde, welche Bücher, Themen und Autoren zeitweise populär waren, wie es um Status und Selbstpräsentation letztgenannter bestellt war und ist. Als Beispiele zu nennen sind Benjamin von Stuckrad-Barre und Florian Illies, beide sich ihres (Markt-)Wertes wohl bewusste Vertreter der Pop- und Generationsliteratur, die in den letzten Jahren einen Boom erlebte. Beide Schriftsteller wurden mit ihren Werken einer detailgenauen Analyse unterzogen. Spricht man über Literatur, ist es unumgänglich, das – vorherrschende – nicht unproblematische Literaturverständnis zu durchleuchten. Galten Bücher einst als Status- und Bildungssymbol, ist von dieser Wertschätzung und von solch hohem Prestige heute nicht mehr allzu viel vorhanden. Das Erarbeiten eines Literaturbegriffs bot sich in der Auseinandersetzung mit in der Germanistik gängigen Theorien an (z. B. Empirische Theorie der Literatur nach S. J. Schmidt). Reduzierte man (als ein Ergebnis) Leistung und Wert von Literatur tatsächlich nur noch auf reine, unkomplizierte und schnelllebige Unterhaltung, führte dies zwangsweise zur Frage nach einer Medienkonkurrenz in erster Linie mit dem Fernsehen, dann mit dem Computer und seinen Möglichkeiten. Im dritten und letzten Abschnitt der Arbeit wurde anhand von ausgewählten Beispielen dargestellt, wie das gegenwärtige Literaturverständnis mit dem Markt konform geht, sprich welche Aktionen an der Schnittstelle Markt – Leser stattfinden, mit denen letztere auf Literatur aufmerksam gemacht und zum Lesen animiert werden sollen. In diesem Rahmen wurde u. a. das System der Literaturkritik knapp beschrieben und anhand von drei aktuellen Rezensionsbeispielen veranschaulicht.
Resumo:
An extensive study of the morphology and the dynamics of the equatorial ionosphere over South America is presented here. A multi parametric approach is used to describe the physical characteristics of the ionosphere in the regions where the combination of the thermospheric electric field and the horizontal geomagnetic field creates the so-called Equatorial Ionization Anomalies. Ground based measurements from GNSS receivers are used to link the Total Electron Content (TEC), its spatial gradients and the phenomenon known as scintillation that can lead to a GNSS signal degradation or even to a GNSS signal ‘loss of lock’. A new algorithm to highlight the features characterizing the TEC distribution is developed in the framework of this thesis and the results obtained are validated and used to improve the performance of a GNSS positioning technique (long baseline RTK). In addition, the correlation between scintillation and dynamics of the ionospheric irregularities is investigated. By means of a software, here implemented, the velocity of the ionospheric irregularities is evaluated using high sampling rate GNSS measurements. The results highlight the parallel behaviour of the amplitude scintillation index (S4) occurrence and the zonal velocity of the ionospheric irregularities at least during severe scintillations conditions (post-sunset hours). This suggests that scintillations are driven by TEC gradients as well as by the dynamics of the ionospheric plasma. Finally, given the importance of such studies for technological applications (e.g. GNSS high-precision applications), a validation of the NeQuick model (i.e. the model used in the new GALILEO satellites for TEC modelling) is performed. The NeQuick performance dramatically improves when data from HF radar sounding (ionograms) are ingested. A custom designed algorithm, based on the image recognition technique, is developed to properly select the ingested data, leading to further improvement of the NeQuick performance.
Resumo:
La matematica è un’attività umana che sembra non lasciare indifferente quasi nessuno: alcuni rimangono affascinati dalla sua ‘magia’, molti altri provano paura e rifiutano categoricamente persino di sentirla nominare. Spesso, non solo a scuola, si percepisce la matematica come un’attività distaccata, fredda, lontana dalle esigenze del mondo reale. Bisognerebbe, invece, fare in modo che gli studenti la sentano come una risorsa culturale importante, da costruire personalmente con tempo, fatica e soddisfazione. Gli studenti dovrebbero avere l’opportunità di riflettere sul senso di fare matematica e sulle sue potenzialità, attraverso attività che diano spazio alla costruzione autonoma, alle loro ipotesi e alla condivisione delle idee. Nel primo capitolo, a partire dalle difficoltà degli studenti, sono analizzati alcuni studi sulla straordinaria capacità della matematica di organizzare le nostre rappresentazioni del mondo che ci circonda e sull’importanza di costruire percorsi didattici incentrati sulla modellizzazione matematica. Dalla considerazione di questi studi, è stato elaborato un progetto didattico, presentato nel secondo capitolo, che potesse rappresentare un’occasione inconsueta ma significativa per cercare di chiarire l’intreccio profondo tra matematica e fisica. Si tratta di una proposta rivolta a studenti all’inizio del secondo biennio in cui è prevista una revisione dei problemi della cinematica attraverso le parole di Galileo. L’analisi di documenti storici permette di approfondire le relazioni tra grandezze cinematiche e di mettere in evidenza la struttura matematica di tali relazioni. Le scelte che abbiamo fatto nella nostra proposta sono state messe in discussione da alcuni insegnanti all’inizio della formazione per avere un primo riscontro sulla sua validità e sulle sue potenzialità. Le riflessioni raccolte sono state lo spunto per trarre delle considerazioni finali. Nelle appendici, è presente materiale di lavoro utilizzato per la progettazione e discussione del percorso: alcuni testi originali di Aristotele e di Galileo, le diapositive con cui la proposta è stata presentata agli studenti universitari e un esempio di protocollo di costruzione di Geogebra sul moto parabolico.
Resumo:
Das Gebiet der drahtlosen Kommunikationsanwendungen befindet sich in einem permanenten Entwicklungsprozess (Mobilfunkstandards: GSM/UMTS/LTE/5G, glo-bale Navigationssatellitensysteme (GNSS): GPS, GLONASS, Galileo, Beidou) zu immer höheren Datenraten und zunehmender Miniaturisierung, woraus ein hoher Bedarf für neue, optimierte Hochfrequenzmaterialien resultiert. Diese Entwicklung zeigt sich besonders in den letzten Jahren in der zunehmenden Entwicklung und Anzahl von Smartphones, welche verschiedene Technologien mit unterschiedlichen Arbeitsfrequenzen innerhalb eines Geräts kombinieren (data: 1G-4G, GPS, WLAN, Bluetooth). Die für zukünftige Technologien (z.B. 5G) benötigte Performance-steigerung kann durch die Verwendung von auf MIMO basierenden Antennensystemen realisiert werden (multiple-input & multiple-output, gesteuerte Kombination von mehreren Antennen) für welche auf dielectric Loading basierende Technologien als eine der vielversprechendsten Implementierungslösungen angesehen werden. rnDas Ziel dieser Arbeit war die Entwicklung einer geeigneten paraelektrischen Glaskeramik ($varepsilon_{r}$ > 20, $Qf$ > 5000 GHz, |$tau_f$| < 20 ppm/K; im GHz Frequenzbe-reich) im $mathrm{La_{2}O_{3}}$-$mathrm{TiO_{2}}$-$mathrm{SiO_{2}}$-$mathrm{B_{2}O_{3}}$-System für auf dielectric Loading basierende Mobilfunkkommunikationstechnologien als Alternative zu existierenden kommerziell genutzten Sinterkeramiken. Der Fokus lag hierbei auf der Frage, wie die makroskopi-schen dielektrischen Eigenschaften der Glaskeramik mit ihrer Mikrostruktur korreliert bzw. modifiziert werden können. Es konnte gezeigt werden, dass die dielektrischen Materialanforderungen durch das untersuchte System erfüllt werden und dass auf Glaskeramik basierende Dielektrika weitere vorteilhafte nichtelektro-nische Eigenschaften gegenüber gesinterten Keramiken besitzen, womit dielektrische Glaskeramiken durchaus als geeignete Alternative angesehen werden können. rnEin stabiles Grünglas mit minimalen Glasbildneranteil wurde entwickelt und die chemische Zusammensetzung bezüglich Entglasung und Redoxinstabilitäten optimiert. Geeignete Dotierungen für dielektrisch verlustarme $mathrm{TiO_{2}}$-haltige Glaskeramiken wurden identifiziert.rnDer Einfluss der Schmelzbedingungen auf die Keimbildung wurde untersucht und der Keramisierungsprozess auf einen maximalen Anteil der gewünschten Kristallphasen optimiert um optimale dielektrische Eigenschaften zu erhalten. Die mikroskopische Struktur der Glaskeramiken wurde analysiert und ihr Einfluss auf die makroskopischen dielektrischen Eigenschaften bestimmt. Die Hochfrequenzverlustmechanismen wurden untersucht und Antennen-Prototypenserien wurden analysiert um die Eignung von auf Glaskeramik basierenden Dielektrika für die Verwendung in dielectric Loading Anwendungen zu zeigen.
Resumo:
Dai Sumeri a Galileo lo studio dei cinque pianeti conosciuti era stato effettuato ad occhio nudo e aveva consentito di comprendere le modalità del loro moto. Con Galileo gli strumenti tecnologici sono posti a servizio della scienza, per migliorare le prestazioni dei sensi umani. La ricerca subisce così una netta accelerazione che porta, nell'arco di soli tre secoli, alla scoperta dei satelliti di Giove e dei pianeti Urano e Nettuno. Quest'ultima è considerata il trionfo della matematica perché effettuata esclusivamente con lunghi e complessi calcoli.
Resumo:
Tra tutti i fenomeni naturali osservabili, ne era presente uno particolarmente interessante e con il quale si aveva diretto contatto quotidianamente: la gravità. Dopo le innumerevoli osservazioni astronomiche effettuate da Galileo, fu Newton nel diciassettesimo secolo a capire che il moto dei pianeti era governato dalle medesime leggi che descrivono la caduta dei gravi sulla Terra e fu quindi lui che ci fornì una prima teoria della gravità con la quale si spiegarono le orbite dei pianeti con ottima precisione. Grazie al contributo di Einstein, la teoria si rinnovò e si arricchì, ma rimase pur sempre lontana dall' essere completa, tant' è che ancora oggi sono presenti molte domande a cui non siamo in grado di rispondere. In questo articolo ci occuperemo di tali quesiti, provando a formulare una teoria che sia in accordo con le attuali evidenze sperimentali. Nella prima parte, tratteremo le ragioni che hanno spinto i ricercatori ad introdurre le nuove teorie della gravità f(R); in particolare vedremo la peculiarità delle curve di rotazione delle galassie e perché ci sia il bisogno di tirare in ballo la materia oscura. Discuteremo anche alcuni problemi derivanti dall' evoluzione cosmica e altre incongruenze riguardanti la stabilità delle stelle di neutroni. In seguito mostreremo come ricavare l' equazione di Einstein partendo dai principi variazionali di Hamilton, e estenderemo tale ragionamento con lo scopo di ottenere un' equazione corrispondente ad una gravità modificata. Infine, verranno introdotte le teorie della gravità f(R), per mezzo delle quali cercheremo di discutere alcune possibili spiegazioni alle problematiche mosse nella parte introduttiva.