900 resultados para Precision timed machines


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Temporal replicate counts are often aggregated to improve model fit by reducing zero-inflation and count variability, and in the case of migration counts collected hourly throughout a migration, allows one to ignore nonindependence. However, aggregation can represent a loss of potentially useful information on the hourly or seasonal distribution of counts, which might impact our ability to estimate reliable trends. We simulated 20-year hourly raptor migration count datasets with known rate of change to test the effect of aggregating hourly counts to daily or annual totals on our ability to recover known trend. We simulated data for three types of species, to test whether results varied with species abundance or migration strategy: a commonly detected species, e.g., Northern Harrier, Circus cyaneus; a rarely detected species, e.g., Peregrine Falcon, Falco peregrinus; and a species typically counted in large aggregations with overdispersed counts, e.g., Broad-winged Hawk, Buteo platypterus. We compared accuracy and precision of estimated trends across species and count types (hourly/daily/annual) using hierarchical models that assumed a Poisson, negative binomial (NB) or zero-inflated negative binomial (ZINB) count distribution. We found little benefit of modeling zero-inflation or of modeling the hourly distribution of migration counts. For the rare species, trends analyzed using daily totals and an NB or ZINB data distribution resulted in a higher probability of detecting an accurate and precise trend. In contrast, trends of the common and overdispersed species benefited from aggregation to annual totals, and for the overdispersed species in particular, trends estimating using annual totals were more precise, and resulted in lower probabilities of estimating a trend (1) in the wrong direction, or (2) with credible intervals that excluded the true trend, as compared with hourly and daily counts.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Abstract: In the mid-1990s when I worked for a telecommunications giant I struggled to gain access to basic geodemographic data. It cost hundreds of thousands of dollars at the time to simply purchase a tile of satellite imagery from Marconi, and it was often cheaper to create my own maps using a digitizer and A0 paper maps. Everything from granular administrative boundaries to right-of-ways to points of interest and geocoding capabilities were either unavailable for the places I was working in throughout Asia or very limited. The control of this data was either in a government’s census and statistical bureau or was created by a handful of forward thinking corporations. Twenty years on we find ourselves inundated with data (location and other) that we are challenged to amalgamate, and much of it still “dirty” in nature. Open data initiatives such as ODI give us great hope for how we might be able to share information together and capitalize not only in the crowdsourcing behavior but in the implications for positive usage for the environment and for the advancement of humanity. We are already gathering and amassing a great deal of data and insight through excellent citizen science participatory projects across the globe. In early 2015, I delivered a keynote at the Data Made Me Do It conference at UC Berkeley, and in the preceding year an invited talk at the inaugural QSymposium. In gathering research for these presentations, I began to ponder on the effect that social machines (in effect, autonomous data collection subjects and objects) might have on social behaviors. I focused on studying the problem of data from various veillance perspectives, with an emphasis on the shortcomings of uberveillance which included the potential for misinformation, misinterpretation, and information manipulation when context was entirely missing. As we build advanced systems that rely almost entirely on social machines, we need to ponder on the risks associated with following a purely technocratic approach where machines devoid of intelligence may one day dictate what humans do at the fundamental praxis level. What might be the fallout of uberveillance? Bio: Dr Katina Michael is a professor in the School of Computing and Information Technology at the University of Wollongong. She presently holds the position of Associate Dean – International in the Faculty of Engineering and Information Sciences. Katina is the IEEE Technology and Society Magazine editor-in-chief, and IEEE Consumer Electronics Magazine senior editor. Since 2008 she has been a board member of the Australian Privacy Foundation, and until recently was the Vice-Chair. Michael researches on the socio-ethical implications of emerging technologies with an emphasis on an all-hazards approach to national security. She has written and edited six books, guest edited numerous special issue journals on themes related to radio-frequency identification (RFID) tags, supply chain management, location-based services, innovation and surveillance/ uberveillance for Proceedings of the IEEE, Computer and IEEE Potentials. Prior to academia, Katina worked for Nortel Networks as a senior network engineer in Asia, and also in information systems for OTIS and Andersen Consulting. She holds cross-disciplinary qualifications in technology and law.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thesis (Ph.D.)--University of Washington, 2016-07

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce travail présente une modélisation rapide d’ordre élévé capable de modéliser une configuration rotorique en cage complète ou en grille, de reproduire les courants de barre et tenir compte des harmoniques d’espace. Le modèle utilise une approche combinée d’éléments finis avec les circuits-couplés. En effet, le calcul des inductances est réalisé avec les éléments finis, ce qui confère une précision avancée au modèle. Cette méthode offre un gain important en temps de calcul sur les éléments finis pour des simulations transitoires. Deux outils de simulation sont développés, un dans le domaine du temps pour des résolutions dynamiques et un autre dans le domaine des phaseurs dont une application sur des tests de réponse en fréquence à l’arrêt (SSFR) est également présentée. La méthode de construction du modèle est décrite en détail de même que la procédure de modélisation de la cage du rotor. Le modèle est validé par l’étude de machines synchrones: une machine de laboratoire de 5.4 KVA et un grand alternateur de 109 MVA dont les mesures expérimentales sont comparées aux résultats de simulation du modèle pour des essais tels que des tests à vide, des courts-circuits triphasés, biphasés et un test en charge.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The phase difference principle is widely applied nowadays to sonar systems used for sea floor bathymetry, The apparent angle of a target point is obtained from the phase difference measured between two close receiving arrays. Here we study the influence of the phase difference estimation errors caused by the physical structure of the backscattered signals. It is shown that, under certain current conditions, beyond the commonly considered effects of additive external noise and baseline decorrelation, the processing may be affected by the shifting footprint effect: this is due to the fact that the two interferometer receivers get simultaneous echo contributions coming from slightly shifted seabed parts, which results in a degradation of the signal coherence and, hence, of the phase difference measurement. This geometrical effect is described analytically and checked with numerical simulations, both for square- and sine-shaped signal envelopes. Its relative influence depends on the geometrical configuration and receiver spacing; it may be prevalent in practical cases associated with bathymetric sonars. The cases of square and smooth signal envelopes are both considered. The measurements close to nadir, which are known to be especially difficult with interferometry systems, are addressed in particular.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Manipulation of single cells and particles is important to biology and nanotechnology. Our electrokinetic (EK) tweezers manipulate objects in simple microfluidic devices using gentle fluid and electric forces under vision-based feedback control. In this dissertation, I detail a user-friendly implementation of EK tweezers that allows users to select, position, and assemble cells and nanoparticles. This EK system was used to measure attachment forces between living breast cancer cells, trap single quantum dots with 45 nm accuracy, build nanophotonic circuits, and scan optical properties of nanowires. With a novel multi-layer microfluidic device, EK was also used to guide single microspheres along complex 3D trajectories. The schemes, software, and methods developed here can be used in many settings to precisely manipulate most visible objects, assemble objects into useful structures, and improve the function of lab-on-a-chip microfluidic systems.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We describe a new geometry for electrostatic actuators to be used in sensitive laser interferometers, suited for prototype and table top experiments related to gravitational wave detection with mirrors of 100 g or less. The arrangement consists of two plates at the sides of the mirror (test mass), and therefore does not reduce its clear aperture as a conventional electrostatic drive (ESD) would do. Using the sample case of the AEI-10 m prototype interferometer, we investigate the actuation range and the influence of the relative misalignment of the ESD plates with respect to the test mass. We find that in the case of the AEI-10 m prototype interferometer, this new kind of ESD could provide a range of 0.28 mu m when operated at a voltage of 1 kV. In addition, the geometry presented is shown to provide a reduction factor of about 100 in the magnitude of the actuator motion coupling to the test mass displacement. We show that therefore in the specific case of the AEI-10 m interferometer, it is possible to mount the ESD actuators directly on the optical table without spoiling the seismic isolation performance of the triple stage suspension of the main test masses.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Quantum sensors based on coherent matter-waves are precise measurement devices whose ultimate accuracy is achieved with Bose-Einstein condensates (BECs) in extended free fall. This is ideally realized in microgravity environments such as drop towers, ballistic rockets and space platforms. However, the transition from lab-based BEC machines to robust and mobile sources with comparable performance is a challenging endeavor. Here we report on the realization of a miniaturized setup, generating a flux of 4x10(5) quantum degenerate Rb-87 atoms every 1.6 s. Ensembles of 1 x 10(5) atoms can be produced at a 1 Hz rate. This is achieved by loading a cold atomic beam directly into a multi-layer atom chip that is designed for efficient transfer from laser-cooled to magnetically trapped clouds. The attained flux of degenerate atoms is on par with current lab-based BEC experiments while offering significantly higher repetition rates. Additionally, the flux is approaching those of current interferometers employing Raman-type velocity selection of laser-cooled atoms. The compact and robust design allows for mobile operation in a variety of demanding environments and paves the way for transportable high-precision quantum sensors.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A correct understanding about how computers run code is mandatory in order to effectively learn to program. Lectures have historically been used in programming courses to teach how computers execute code, and students are assessed through traditional evaluation methods, such as exams. Constructivism learning theory objects to students’ passiveness during lessons, and traditional quantitative methods for evaluating a complex cognitive process such as understanding. Constructivism proposes complimentary techniques, such as conceptual contraposition and colloquies. We enriched lectures of a “Programming II” (CS2) course combining conceptual contraposition with program memory tracing, then we evaluated students’ understanding of programming concepts through colloquies. Results revealed that these techniques applied to the lecture are insufficient to help students develop satisfactory mental models of the C++ notional machine, and colloquies behaved as the most comprehensive traditional evaluations conducted in the course.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Second order matrix equations arise in the description of real dynamical systems. Traditional modal control approaches utilise the eigenvectors of the undamped system to diagonalise the system matrices. A regrettable consequence of this approach is the discarding of residual o-diagonal terms in the modal damping matrix. This has particular importance for systems containing skew-symmetry in the damping matrix which is entirely discarded in the modal damping matrix. In this paper a method to utilise modal control using the decoupled second order matrix equations involving nonclassical damping is proposed. An example of modal control sucessfully applied to a rotating system is presented in which the system damping matrix contains skew-symmetric components.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In the context of active control of rotating machines, standard optimal controller methods enable a trade-off to be made between (weighted) mean-square vibrations and (weighted) mean-square currents injected into magnetic bearings. One shortcoming of such controllers is that no concern is devoted to the voltages required. In practice, the voltage available imposes a strict limitation on the maximum possible rate of change of control force (force slew rate). This paper removes the aforementioned existing shortcomings of traditional optimal control.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Second order matrix equations arise in the description of real dynamical systems. Traditional modal control approaches utilise the eigenvectors of the undamped system to diagonalise the system matrices. A regrettable consequence of this approach is the discarding of residual off-diagonal terms in the modal damping matrix. This has particular importance for systems containing skew-symmetry in the damping matrix which is entirely discarded in the modal damping matrix. In this paper a method to utilise modal control using the decoupled second order matrix equations involving non-classical damping is proposed. An example of modal control successfully applied to a rotating system is presented in which the system damping matrix contains skew-symmetric components.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les langages de programmation typés dynamiquement tels que JavaScript et Python repoussent la vérification de typage jusqu’au moment de l’exécution. Afin d’optimiser la performance de ces langages, les implémentations de machines virtuelles pour langages dynamiques doivent tenter d’éliminer les tests de typage dynamiques redondants. Cela se fait habituellement en utilisant une analyse d’inférence de types. Cependant, les analyses de ce genre sont souvent coûteuses et impliquent des compromis entre le temps de compilation et la précision des résultats obtenus. Ceci a conduit à la conception d’architectures de VM de plus en plus complexes. Nous proposons le versionnement paresseux de blocs de base, une technique de compilation à la volée simple qui élimine efficacement les tests de typage dynamiques redondants sur les chemins d’exécution critiques. Cette nouvelle approche génère paresseusement des versions spécialisées des blocs de base tout en propageant de l’information de typage contextualisée. Notre technique ne nécessite pas l’utilisation d’analyses de programme coûteuses, n’est pas contrainte par les limitations de précision des analyses d’inférence de types traditionnelles et évite la complexité des techniques d’optimisation spéculatives. Trois extensions sont apportées au versionnement de blocs de base afin de lui donner des capacités d’optimisation interprocédurale. Une première extension lui donne la possibilité de joindre des informations de typage aux propriétés des objets et aux variables globales. Puis, la spécialisation de points d’entrée lui permet de passer de l’information de typage des fonctions appellantes aux fonctions appellées. Finalement, la spécialisation des continuations d’appels permet de transmettre le type des valeurs de retour des fonctions appellées aux appellants sans coût dynamique. Nous démontrons empiriquement que ces extensions permettent au versionnement de blocs de base d’éliminer plus de tests de typage dynamiques que toute analyse d’inférence de typage statique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Hintergrund: Für die Therapie maligner Neubildungen stellt die Strahlentherapie wichtige Behandlungsmöglichkeiten dar, die sich in den vergangenen Jahrzehnten deutlich weiterentwickelt haben. Hierzu gehört unter anderem die stereotaktische Radiochirurgie (SRS), die durch eine einmalige Applikation fokussierter hoher Strahlendosen in einem klar definierten Zeitraum gekennzeichnet ist. Von besonderer Bedeutung ist die SRS für die Behandlung von Hirnmetastasen. Fragestellung: Ziel dieses HTA-Berichts ist die Erstellung einer umfassenden Übersicht der aktuellen Literatur der Behandlung von Hirnmetastasen, um die Radiochirurgie als alleinige Therapie oder in Kombination mit Therapiealternativen bezüglich der medizinischen Wirksamkeit, Sicherheit und Wirtschaftlichkeit sowie ethischer, sozialer und juristischer Aspekte zu vergleichen. Methodik: Relevante Publikationen deutscher und englischer Sprache werden über eine strukturierte Datenbank- sowie mittels Handrecherche zwischen Januar 2002 und August 2007 identifiziert. Die Zielpopulation bilden Patienten mit einer oder mehreren Hirnmetastasen. Eine Beurteilung der methodischen Qualität wird unter Beachtung von Kriterien der evidenzbasierten Medizin (EbM) durchgeführt. Ergebnisse: Von insgesamt 1.495 Treffern erfüllen 15 Studien die medizinischen Einschlusskriterien. Insgesamt ist die Studienqualität stark eingeschränkt und mit Ausnahme von zwei randomisierte kontrollierte Studien (RCT) und zwei Metaanalysen werden ausschließlich historische Kohortenstudien identifiziert. Die Untersuchung relevanter Endpunkte ist uneinheitlich. Qualitativ hochwertige Studien zeigen, dass die Ergänzung der Ganzhirnbestrahlung (WBRT) zur SRS sowie der SRS zur WBRT mit einer verbesserten lokalen Tumorkontrolle und Funktionsfähigkeit einhergeht. Nur im Vergleich zur alleinigen WBRT resultiert die Kombination von SRS und WBRT jedoch bei Patienten mit singulären Hirnmetastasen, RPA-Klasse 1 (RPA = Rekursive Partitionierungsanalyse) und bestimmten Primärtumoren in verbesserter Überlebenszeit. Die Therapiesicherheit zeigt in beiden Fällen keine deutlichen Unterschiede zwischen den Interventionsgruppen. Methodisch weniger hochwertige Studien finden keine eindeutigen Unterschiede zwischen SRS und WBRT, SRS und Neurochirurgie (NC) sowie SRS und hypofraktionierter Strahlentherapie (HCSRT). Die Lebensqualität wird in keiner Studie untersucht. Durch die Datenbankrecherche werden 320 Publikationen für den ökonomischen Bereich identifiziert. Insgesamt werden fünf davon für den vorliegenden Health Technology Assessment (HTA)-Bericht verwendet. Die Qualität der Publikationen ist dabei unterschiedlich. Bezüglich der Wirtschaftlichkeit verschiedener Gerätealternativen ergibt sich, unter der Annahme gleicher Wirksamkeit, eine starke Abhängigkeit von der Anzahl der behandelten Patienten. Im Fall, dass die beiden Gerätealternativen nur für die SRS verwandt werden, liegen Hinweise vor, dass das Gamma Knife kostengünstiger sein kann. Andernfalls ist es sehr wahrscheinlich, dass der flexiblere modifizierte Linearbeschleuniger kostengünstiger ist. Nach einem HTA sind die Gesamtkosten für ein Gamma Knife und einen dedizierten Linearbeschleuniger ungefähr gleich, während ein modifizierter Linearbeschleuniger günstiger ist. Für ethische, juristische und soziale Fragestellungen werden keine relevanten Publikationen identifiziert. Diskussion: Insgesamt sind sowohl die Qualität als auch die Quantität identifizierter Studien stark reduziert. Es zeigt sich jedoch, dass die Prognose von Patienten mit Hirnmetastasen auch unter modernsten therapeutischen Möglichkeiten schlecht ist. Ausreichend starke Evidenz gibt es lediglich für die Untersuchung ergänzender WBRT zur SRS und der ergänzenden SRS zur WBRT. Ein direkter Vergleich von SRS und WBRT, SRS und NC sowie SRS und HCSRT ist hingegen nicht möglich. Die Wirtschaftlichkeit verschiedener Gerätealternativen hängt von der Patientenzahl und den behandelten Indikationen ab. Für ausgelastete dedizierte Systeme, liegen Hinweise vor, dass sie kostengünstiger sein können. Bei flexibler Nutzung scheinen modifizierte Systeme wirtschaftlich vorteilhafter. Diese Aussagen erfolgen unter der nicht gesicherten Annahme gleicher Wirksamkeit der Alternativen. Die Behandlungspräzision der Geräte kann Einfluss auf die Gerätewahl haben. Zu neueren Gerätealternativen wie z. B. dem CyberKnife liegen bisher keine Untersuchungen vor. Aus der wirtschaftlich vorteilhaften hohen Auslastung folgt aber eine begrenzte Geräteanzahl in einem vorgegebenen Gebiet, was evtl. einen gleichberechtigten, wohnortnahen Zugang zu dieser Technik erschwert. Schlussfolgerungen: Die Kombination SRS und WBRT geht mit einer verbesserten lokalen Tumorkontrolle und Funktionsfähigkeit gegenüber der jeweils alleinigen Therapie einher. Nur für Patienten mit singulärer Metastase resultiert dies in Vorteilen der Überlebenszeit. Qualitativ hochwertige Studien sind notwendig um die SRS direkt mit WBRT und NC zu vergleichen. Weiterhin sollte besonders die Lebensqualität in zukünftigen Studien mitberücksichtigt werden. Bei der Art des verwendeten Gerätes zeichnet sich eine deutliche Abhängigkeit der Wirtschaftlichkeit der Geräte von der erreichbaren Auslastung ab. Hohe Patientenzahlen bieten Vorteile für spezialisierte Systeme und bei geringeren Patientenzahlen ist die Flexibilität modifizierter System vorteilhaft. Weitere Studien z. B. zum CyberKnife sind wünschenswert. Insgesamt ist die Studienlage insbesondere für das deutsche Gesundheitssystem sehr mangelhaft.