857 resultados para cash-in-advance
Resumo:
This inquiry reveals the crucial guidance of teachers toward surveying the capacity and needs of students, the formation of ideas, acting upon ideas, fostering connections, seeing potential, making judgments, and arranging conditions. Each aesthetic trace causes me to wonder how teachers learn to create experiences that foster student participation in the world aesthetically. The following considerations surface: • Given the emphasis in schools on outcomes and results, how do we encourage teachers to focus on acts of mind instead of end products in their work with students? • Given the orientations toward technical rationality, to fixed sequence, how do we help teachers experience fluid, purposeful learning adventures with students in which the imagi¬nation is given room to play? • Given the tendency to conceive of planning in teaching as the deciding of everything in advance, how do we help teachers and students become attuned to making good judgments derived from within learning experiences? • How do we help teachers build dialogical multivoiced conversations instead of monolithic curriculum? • What do we do to recover the pleasure dwelling in subject matter? How do we get teachers and students to engage thoughtfully in meaningful learning as opposed to covering curriculum7 • A capacity to attend sensitively, to perceive the complexity of relationships coming together in any teaching/learning experience seems critical. How do we help teachers and students attend to the unity of a learning experience and the play of meanings that arises from such undergoing and doing? The traces, patterns, and texture evidenced locate tremendous hope and wondrous possibilities alive within aesthetic teaching/learning encounters. It is such aliveness I encountered in the grade 4 art classroom that opened this account and continues to compel my attention. Possibilities for teaching, learning, and teacher education emerge. I am convinced they are most worthy of continued pursuit.
Resumo:
The first part of my thesis presents an overview of the different approaches used in the past two decades in the attempt to forecast epileptic seizure on the basis of intracranial and scalp EEG. Past research could reveal some value of linear and nonlinear algorithms to detect EEG features changing over different phases of the epileptic cycle. However, their exact value for seizure prediction, in terms of sensitivity and specificity, is still discussed and has to be evaluated. In particular, the monitored EEG features may fluctuate with the vigilance state and lead to false alarms. Recently, such a dependency on vigilance states has been reported for some seizure prediction methods, suggesting a reduced reliability. An additional factor limiting application and validation of most seizure-prediction techniques is their computational load. For the first time, the reliability of permutation entropy [PE] was verified in seizure prediction on scalp EEG data, contemporarily controlling for its dependency on different vigilance states. PE was recently introduced as an extremely fast and robust complexity measure for chaotic time series and thus suitable for online application even in portable systems. The capability of PE to distinguish between preictal and interictal state has been demonstrated using Receiver Operating Characteristics (ROC) analysis. Correlation analysis was used to assess dependency of PE on vigilance states. Scalp EEG-Data from two right temporal epileptic lobe (RTLE) patients and from one patient with right frontal lobe epilepsy were analysed. The last patient was included only in the correlation analysis, since no datasets including seizures have been available for him. The ROC analysis showed a good separability of interictal and preictal phases for both RTLE patients, suggesting that PE could be sensitive to EEG modifications, not visible on visual inspection, that might occur well in advance respect to the EEG and clinical onset of seizures. However, the simultaneous assessment of the changes in vigilance showed that: a) all seizures occurred in association with the transition of vigilance states; b) PE was sensitive in detecting different vigilance states, independently of seizure occurrences. Due to the limitations of the datasets, these results cannot rule out the capability of PE to detect preictal states. However, the good separability between pre- and interictal phases might depend exclusively on the coincidence of epileptic seizure onset with a transition from a state of low vigilance to a state of increased vigilance. The finding of a dependency of PE on vigilance state is an original finding, not reported in literature, and suggesting the possibility to classify vigilance states by means of PE in an authomatic and objectic way. The second part of my thesis provides the description of a novel behavioral task based on motor imagery skills, firstly introduced (Bruzzo et al. 2007), in order to study mental simulation of biological and non-biological movement in paranoid schizophrenics (PS). Immediately after the presentation of a real movement, participants had to imagine or re-enact the very same movement. By key release and key press respectively, participants had to indicate when they started and ended the mental simulation or the re-enactment, making it feasible to measure the duration of the simulated or re-enacted movements. The proportional error between duration of the re-enacted/simulated movement and the template movement were compared between different conditions, as well as between PS and healthy subjects. Results revealed a double dissociation between the mechanisms of mental simulation involved in biological and non-biologial movement simulation. While for PS were found large errors for simulation of biological movements, while being more acurate than healthy subjects during simulation of non-biological movements. Healthy subjects showed the opposite relationship, making errors during simulation of non-biological movements, but being most accurate during simulation of non-biological movements. However, the good timing precision during re-enactment of the movements in all conditions and in both groups of participants suggests that perception, memory and attention, as well as motor control processes were not affected. Based upon a long history of literature reporting the existence of psychotic episodes in epileptic patients, a longitudinal study, using a slightly modified behavioral paradigm, was carried out with two RTLE patients, one patient with idiopathic generalized epilepsy and one patient with extratemporal lobe epilepsy. Results provide strong evidence for a possibility to predict upcoming seizures in RTLE patients behaviorally. In the last part of the thesis it has been validated a behavioural strategy based on neurobiofeedback training, to voluntarily control seizures and to reduce there frequency. Three epileptic patients were included in this study. The biofeedback was based on monitoring of slow cortical potentials (SCPs) extracted online from scalp EEG. Patients were trained to produce positive shifts of SCPs. After a training phase patients were monitored for 6 months in order to validate the ability of the learned strategy to reduce seizure frequency. Two of the three refractory epileptic patients recruited for this study showed improvements in self-management and reduction of ictal episodes, even six months after the last training session.
Resumo:
Bei einer Risikoabschätzung bezüglich einer Gefährdung des Schutzgutes Grundwasser müssen alle relevanten Transportpfade, auf denen Schadstoffe durch die Bodenzone bis ins Grundwasser verlagert werden, identifiziert und quantifiziert werden. Die Verlagerung von Schadstoffen gebunden an mobile Partikel im Sickerwasser wird dabei oft vernachlässigt. In dieser Arbeit wurden sowohl experimentelle Untersuchungen zum Partikeltransport in der Bodenzone als auch Szenarienmodellierungen hinsichtlich der Wechselwirkung Partikel/Schadstoff durchgeführt. Die experimentellen ungesättigten Säulenversuche wurden unter naturnahen stationären und instationären hydraulischen und hydrochemischen Bedingungen durchgeführt. Dabei wurde der Einfluss der Parameter Durchmesser Bodenmatrix, Partikelgröße, Beregnungsintensität, Oberflächenspannung und Hydrochemie auf den Transport von natürlichen und synthetischen Partikeln untersucht. Des Weiteren wurden Untersuchungen zur partikelgebundenen Verlagerung von Phenanthren durchgeführt. In einer numerischen Szenarienmodellierung mit dem Modell SMART wurde untersucht, unter welchen Randbedingungen der Transport von Partikeln gleichzeitig zu signifikanten partikelgebundenen Schadstoffkonzentrationen im Grundwasser führt. Dabei wurden die Parameter Lithologie Partikel/Boden, Hydrophobizität Schadstoff, Partikelkonzentration, Partikeldurchmesser sowie Körnung Bodenmatrix variiert. Die Ergebnisse dieser Arbeit zeigen, dass der partikelgebundene Schadstofftransportpfad in der ungesättigten Bodenzone in verschiedenen Szenarien den Anteil mobiler Schadstoffe, die mit dem Sickerwasser ins Grundwasser gelangen, signifikant erhöht. Auf Basis der experimentellen und theoretischen Untersuchungen wurde ein zweistufiges Bewertungsschema entwickelt, das bereits im Vorfeld einer Risikoabschätzung als Entscheidungshilfe hinsichtlich der Relevanz einer Mobilisierung, eines Transports und des Rückhalts von partikelgebundenen Schadstoffen in der ungesättigten Zone dient.
Resumo:
Ozon (O3) ist ein wichtiges Oxidierungs- und Treibhausgas in der Erdatmosphäre. Es hat Einfluss auf das Klima, die Luftqualität sowie auf die menschliche Gesundheit und die Vegetation. Ökosysteme, wie beispielsweise Wälder, sind Senken für troposphärisches Ozon und werden in Zukunft, bedingt durch Stürme, Pflanzenschädlinge und Änderungen in der Landnutzung, heterogener sein. Es ist anzunehmen, dass diese Heterogenitäten die Aufnahme von Treibhausgasen verringern und signifikante Rückkopplungen auf das Klimasystem bewirken werden. Beeinflusst wird der Atmosphären-Biosphären-Austausch von Ozon durch stomatäre Aufnahme, Deposition auf Pflanzenoberflächen und Böden sowie chemische Umwandlungen. Diese Prozesse zu verstehen und den Ozonaustausch für verschiedene Ökosysteme zu quantifizieren sind Voraussetzungen, um von lokalen Messungen auf regionale Ozonflüsse zu schließen.rnFür die Messung von vertikalen turbulenten Ozonflüssen wird die Eddy Kovarianz Methode genutzt. Die Verwendung von Eddy Kovarianz Systemen mit geschlossenem Pfad, basierend auf schnellen Chemilumineszenz-Ozonsensoren, kann zu Fehlern in der Flussmessung führen. Ein direkter Vergleich von nebeneinander angebrachten Ozonsensoren ermöglichte es einen Einblick in die Faktoren zu erhalten, die die Genauigkeit der Messungen beeinflussen. Systematische Unterschiede zwischen einzelnen Sensoren und der Einfluss von unterschiedlichen Längen des Einlassschlauches wurden untersucht, indem Frequenzspektren analysiert und Korrekturfaktoren für die Ozonflüsse bestimmt wurden. Die experimentell bestimmten Korrekturfaktoren zeigten keinen signifikanten Unterschied zu Korrekturfaktoren, die mithilfe von theoretischen Transferfunktionen bestimmt wurden, wodurch die Anwendbarkeit der theoretisch ermittelten Faktoren zur Korrektur von Ozonflüssen bestätigt wurde.rnIm Sommer 2011 wurden im Rahmen des EGER (ExchanGE processes in mountainous Regions) Projektes Messungen durchgeführt, um zu einem besseren Verständnis des Atmosphären-Biosphären Ozonaustauschs in gestörten Ökosystemen beizutragen. Ozonflüsse wurden auf beiden Seiten einer Waldkante gemessen, die einen Fichtenwald und einen Windwurf trennt. Auf der straßenähnlichen Freifläche, die durch den Sturm "Kyrill" (2007) entstand, entwickelte sich eine Sekundärvegetation, die sich in ihrer Phänologie und Blattphysiologie vom ursprünglich vorherrschenden Fichtenwald unterschied. Der mittlere nächtliche Fluss über dem Fichtenwald war -6 bis -7 nmol m2 s-1 und nahm auf -13 nmol m2 s-1 um die Mittagszeit ab. Die Ozonflüsse zeigten eine deutliche Beziehung zur Pflanzenverdunstung und CO2 Aufnahme, was darauf hinwies, dass während des Tages der Großteil des Ozons von den Pflanzenstomata aufgenommen wurde. Die relativ hohe nächtliche Deposition wurde durch nicht-stomatäre Prozesse verursacht. Die Deposition über dem Wald war im gesamten Tagesverlauf in etwa doppelt so hoch wie über der Freifläche. Dieses Verhältnis stimmte mit dem Verhältnis des Pflanzenflächenindex (PAI) überein. Die Störung des Ökosystems verringerte somit die Fähigkeit des Bewuchses, als Senke für troposphärisches Ozon zu fungieren. Der deutliche Unterschied der Ozonflüsse der beiden Bewuchsarten verdeutlichte die Herausforderung bei der Regionalisierung von Ozonflüssen in heterogen bewaldeten Gebieten.rnDie gemessenen Flüsse wurden darüber hinaus mit Simulationen verglichen, die mit dem Chemiemodell MLC-CHEM durchgeführt wurden. Um das Modell bezüglich der Berechnung von Ozonflüssen zu evaluieren, wurden gemessene und modellierte Flüsse von zwei Positionen im EGER-Gebiet verwendet. Obwohl die Größenordnung der Flüsse übereinstimmte, zeigten die Ergebnisse eine signifikante Differenz zwischen gemessenen und modellierten Flüssen. Zudem gab es eine klare Abhängigkeit der Differenz von der relativen Feuchte, mit abnehmender Differenz bei zunehmender Feuchte, was zeigte, dass das Modell vor einer Verwendung für umfangreiche Studien des Ozonflusses weiterer Verbesserungen bedarf.rn
Resumo:
Die Erdatmosphäre besteht hauptsächlich aus Stickstoff (78%), Sauerstoff (21%) und Edelga¬sen. Obwohl Partikel weniger als 0,1% ausmachen, spielen sie eine entscheidende Rolle in der Chemie und Physik der Atmosphäre, da sie das Klima der Erde sowohl direkt als auch indirekt beeinflussen. Je nach Art der Bildung unterscheidet man zwischen primären und sekundären Partikeln, wobei primäre Partikel direkt in die Atmosphäre eingetragen werden. Sekundäre Partikel hingegen entstehen durch Kondensation von schwerflüchtigen Verbindungen aus der Gasphase, welche durch Reaktionen von gasförmigen Vorläufersubstanzen (volatile organic compounds, VOCs) mit atmosphärischen Oxidantien wie Ozon oder OH-Radikalen gebildet werden. Da die meisten Vorläufersubstanzen organischer Natur sind, wird das daraus gebil¬dete Aerosol als sekundäres organisches Aerosol (SOA) bezeichnet. Anders als die meisten primären Partikel stammen die VOCs überwiegend aus biogenen Quellen. Es handelt sich da¬bei um ungesättigte Kohlenwasserstoffe, die bei intensiver Sonneneinstrahlung und hohen Temperaturen von Pflanzen emittiert werden. Viele der leichtflüchtigen Vorläufersubstanzen sind chiral, sowohl die Vorläufer als auch die daraus gebildeten Partikel werden aber in den meisten Studien als eine Verbindung betrachtet und gemeinsam analysiert. Die mit Modellen berechneten SOA-Konzentrationen, welche auf dieser traditionellen Vorstellung der SOA-Bil¬dung beruhen, liegen deutlich unterhalb der in der Atmosphäre gefundenen, so dass neben diesem Bildungsweg auch noch andere SOA-Bildungsarten existieren müssen. Aus diesem Grund wird der Fokus der heutigen Forschung vermehrt auf die heterogene Chemie in der Partikelphase gerichtet. Glyoxal als Modellsubstanz kommt hierbei eine wichtige Rolle zu. Es handelt sich bei dieser Verbindung um ein Molekül mit einem hohen Dampfdruck, das auf Grund dieser Eigenschaft nur in der Gasphase zu finden sein sollte. Da es aber über zwei Alde¬hydgruppen verfügt, ist es sehr gut wasserlöslich und kann dadurch in die Partikelphase über¬gehen, wo es heterogenen chemischen Prozessen unterliegt. Unter anderem werden in An¬wesenheit von Ammoniumionen Imidazole gebildet, welche wegen der beiden Stickstoff-He¬teroatome lichtabsorbierende Eigenschaften besitzen. Die Verteilung von Glyoxal zwischen der Gas- und der Partikelphase wird durch das Henrysche Gesetz beschrieben, wobei die Gleichgewichtskonstante die sogenannte Henry-Konstante ist. Diese ist abhängig von der un¬tersuchten organischen Verbindung und den im Partikel vorhandenen anorganischen Salzen. Für die Untersuchung chiraler Verbindungen im SOA wurde zunächst eine Filterextraktions¬methode entwickelt und die erhaltenen Proben anschließend mittels chiraler Hochleistungs-Flüssigchromatographie, welche an ein Elektrospray-Massenspektrometer gekoppelt war, analysiert. Der Fokus lag hierbei auf dem am häufigsten emittierten Monoterpen α-Pinen und seinem Hauptprodukt, der Pinsäure. Da bei der Ozonolyse des α-Pinens das cyclische Grund¬gerüst erhalten bleibt, können trotz der beiden im Molekül vorhanden chiralen Zentren nur zwei Pinsäure Enantiomere gebildet werden. Als Extraktionsmittel wurde eine Mischung aus Methanol/Wasser 9/1 gewählt, mit welcher Extraktionseffizienzen von 65% für Pinsäure Enan¬tiomer 1 und 68% für Pinsäure Enantiomer 2 erreicht werden konnten. Des Weiteren wurden Experimente in einer Atmosphärensimulationskammer durchgeführt, um die Produkte der α-Pinen Ozonolyse eindeutig zu charakterisieren. Enantiomer 1 wurde demnach aus (+)-α-Pinen gebildet und Enantiomer 2 entstand aus (-)-α-Pinen. Auf Filterproben aus dem brasilianischen Regenwald konnte ausschließlich Pinsäure Enantiomer 2 gefunden werden. Enantiomer 1 lag dauerhaft unterhalb der Nachweisgrenze von 18,27 ng/mL. Im borealen Nadelwald war das Verhältnis umgekehrt und Pinsäure Enantiomer 1 überwog vor Pinsäure Enantiomer 2. Das Verhältnis betrug 56% Enantiomer 1 zu 44% Enantiomer 2. Saisonale Verläufe im tropischen Regenwald zeigten, dass die Konzentrationen zur Trockenzeit im August höher waren als wäh¬rend der Regenzeit im Februar. Auch im borealen Nadelwald wurden im Sommer höhere Kon¬zentrationen gemessen als im Winter. Die Verhältnisse der Enantiomere änderten sich nicht im jahreszeitlichen Verlauf. Die Bestimmung der Henry-Konstanten von Glyoxal bei verschiedenen Saataerosolen, nämlich Ammoniumsulfat, Natriumnitrat, Kaliumsulfat, Natriumchlorid und Ammoniumnitrat sowie die irreversible Produktbildung aus Glyoxal in Anwesenheit von Ammoniak waren Forschungs¬gegenstand einer Atmosphärensimulationskammer-Kampagne am Paul-Scherrer-Institut in Villigen, Schweiz. Hierzu wurde zunächst das zu untersuchende Saataerosol in der Kammer vorgelegt und dann aus photochemisch erzeugten OH-Radikalen und Acetylen Glyoxal er¬zeugt. Für die Bestimmung der Glyoxalkonzentration im Kammeraerosol wurde zunächst eine beste¬hende Filterextraktionsmethode modifiziert und die Analyse mittels hochauflösender Mas¬senspektrometrie realisiert. Als Extraktionsmittel kam 100% Acetonitril, ACN zum Einsatz wo¬bei die Extraktionseffizienz bei 85% lag. Für die anschließende Derivatisierung wurde 2,4-Di¬nitrophenylhydrazin, DNPH verwendet. Dieses musste zuvor drei Mal mittels Festphasenex¬traktion gereinigt werden um störende Blindwerte ausreichend zu minimieren. Die gefunde¬nen Henry-Konstanten für Ammoniumsulfat als Saataerosol stimmten gut mit in der Literatur gefundenen Werten überein. Die Werte für Natriumnitrat und Natriumchlorid als Saataerosol waren kleiner als die von Ammoniumsulfat aber größer als der Wert von reinem Wasser. Für Ammoniumnitrat und Kaliumsulfat konnten keine Konstanten berechnet werden. Alle drei Saataerosole führten zu einem „Salting-in“. Das bedeutet, dass bei Erhöhung der Salzmolalität auch die Glyoxalkonzentration im Partikel stieg. Diese Beobachtungen sind auch in der Litera¬tur beschrieben, wobei die Ergebnisse dort nicht auf der Durchführung von Kammerexperi¬menten beruhen, sondern mittels bulk-Experimenten generiert wurden. Für die Trennung der Imidazole wurde eine neue Filterextraktionsmethode entwickelt, wobei sich ein Gemisch aus mit HCl angesäuertem ACN/H2O im Verhältnis 9/1 als optimales Extrak¬tionsmittel herausstellte. Drei verschiedenen Imidazole konnten mit dieser Methode quanti¬fiziert werden, nämlich 1-H-Imidazol-4-carbaldehyd (IC), Imidazol (IM) und 2,2‘-Biimidazol (BI). Die Effizienzen lagen für BI bei 95%, für IC bei 58% und für IM bei 75%. Kammerexperimente unter Zugabe von Ammoniak zeigten höhere Imidazolkonzentrationen als solche ohne. Wurden die Experimente ohne Ammoniak in Anwesenheit von Ammoni¬umsulfat durchgeführt, wurden höhere Imidazol-Konzentrationen gefunden als ohne Ammo¬niumionen. Auch die relative Luftfeuchtigkeit spielte eine wichtige Rolle, da sowohl eine zu hohe als auch eine zu niedrige relative Luftfeuchtigkeit zu einer verminderten Imidazolbildung führte. Durch mit 13C-markiertem Kohlenstoff durchgeführte Experimente konnte eindeutig gezeigt werden, dass es sich bei den gebildeten Imidazolen und Glyoxalprodukte handelte. Außerdem konnte der in der Literatur beschriebene Bildungsmechanismus erfolgreich weiter¬entwickelt werden. Während der CYPHEX Kampagne in Zypern konnten erstmalig Imidazole in Feldproben nach¬gewiesen werden. Das Hauptprodukt IC zeigte einen tageszeitlichen Verlauf mit höheren Kon¬zentrationen während der Nacht und korrelierte signifikant aber schwach mit der Acidität und Ammoniumionenkonzentration des gefundenen Aerosols.
Resumo:
Does the format of assessment (proctored or un-proctored exams) affect test scores in online principles of economics classes? This study uses data from two courses of principles of economics taught by the same instructor to gain some insight into this issue. When final exam scores are regressed against human capital factors, the R-squared statistic is 61.6% for the proctored format exams while it is only 12.2% for the un-proctored format. Three other exams in the class that had the proctored final were also un-proctored and also produced lower R-squared values, averaging 30.5%. These two findings suggest that some cheating may have taken place in the un-proctored exams. Although it appears some cheating took place, the results suggest that cheating did not pay for these students since the proctored exam grades were 4.9 points higher than the un-proctored exam grades although this difference was significantly different at only the 10% level. One possible explanation for this is that there was slightly higher human capital in the class that had the proctored exam although this must have occurred by chance since the students did not know if the exams were going to be proctored in advance so there is no issue of selection bias. A Oaxaca decomposition of this difference in grades was conducted to see how much was due to human capital and how much was due to the differences in the rates of return to human capital. This analysis reveals that 17% of the difference was due to the higher human capital with the remaining 83% due to differences in the returns to human capital. It is possible that the un-proctored exam format does not encourage as much studying as the proctored format reducing both the returns to human capital and the exam scores.
Resumo:
Although, elevated risk for lung cancer has been associated with certain industries and occupations in previous studies, the lack of cigarette smoking information in many of these investigations resulted in estimates that could not be adjusted for the effects of smoking. To determine lung cancer risk due to occupation and smoking, for New Mexico's Anglos and Hispanics, a population-based case-control study was conducted. Incident cases diagnosed 1980-1982, and controls from the general population, were interviewed for lifetime occupational and smoking histories. Specific high risk industries and occupations were identified in advance and linked with industrial and occupational codes for hypotheses-testings. Significantly elevated risks were found for welders (RR = 3.5) and underground miners (RR = 2.0) with adjustment for smoking. Because shipbuilding was the industry of employment for only five of the 18 cases who were welders, exposures other than asbestos could be causal agents. Among the underground for only five of the 18 cases who were welders, exposures other than asbestos could be causal agents. Among the underground miners, uranium, copper, lead and zinc, coal, and potash mining industries were represented. Low prevalence of employment in some of the industries and occupations of interest resulted in inconclusive results. ^
Resumo:
Objective::Describe and understand regional differences and associated multilevel factors (patient, provider and regional) to inappropriate utilization of advance imaging tests in the privately insured population of Texas. Methods: We analyzed Blue Cross Blue Shield of Texas claims dataset to study the advance imaging utilization during 2008-2010 in the PPO/PPO+ plans. We used three of CMS "Hospital Outpatient Quality Reporting" imaging efficiency measures. These included ordering MRI for low back pain without prior conservative management (OP-8) and utilization of combined with and without contrast abdominal CT (OP-10) and thorax CT (OP-11). Means and variation by hospital referral regions (HRR) in Texas were measured and a multilevel logistic regression for being a provider with high values for any the three OP measures was used in the analysis. We also analyzed OP-8 at the individual level. A multilevel logistic regression was used to identify predictive factors for having an inappropriate MRI for low back pain. Results: Mean OP-8 for Texas providers was 37.89%, OP-10 was 29.94% and OP-11 was 9.24%. Variation was higher for CT measure. And certain HRRs were consistently above the mean. Hospital providers had higher odds of high OP-8 values (OP-8: OR, 1.34; CI, 1.12-1.60) but had smaller odds of having high OP-10 and OP-11 values (OP-10: OR, 0.15; CI, 0.12-0.18; OP-11: OR, 0.43; CI, 0.34-0.53). Providers with the highest volume of imaging studies performed, were less likely to have high OP-8 measures (OP-8: OR, 0.58; CI, 0.48-0.70) but more likely to perform combined thoracic CT scans (OP-11: OR, 1.62; CI, 1.34-1.95). Males had higher odds of inappropriate MRI (OR, 1.21; CI, 1.16-1.26). Pattern of care in the six months prior to the MRI event was significantly associated with having an inappropriate MRI. Conclusion::We identified a significant variation in advance imaging utilization across Texas. Type of facility was associated with measure performance, but the associations differ according to the type of study. Last, certain individual characteristics such as gender, age and pattern of care were found to be predictors of inappropriate MRIs.^
Resumo:
Background Emergency contraception can prevent pregnancy when taken after unprotected intercourse.Obtaining emergency contraception within the recommended time frame is difficult for many women. Advance provision could circumvent some obstacles to timely use. Objectives To summarize randomized controlled trials evaluating advance provision of emergency contraception to explore effects on pregnancy rates, sexually transmitted infections, and sexual and contraceptive behaviors. Search strategy In November 2009, we searched CENTRAL, EMBASE, POPLINE,MEDLINE via PubMed, and a specialized emergency contraception article database. We also searched reference lists and contacted experts to identify additional published or unpublished trials. Selection criteria We included randomized controlled trials comparing advance provision and standard access (i.e., counseling whichmay ormay not have included information about emergency contraception, or provision of emergency contraception on request at a clinic or pharmacy). Data collection and analysis Two reviewers independently abstracted data and assessed study quality. We entered and analyzed data using RevMan 5.0.23. Main results Eleven randomized controlled trials met our criteria for inclusion, representing 7695 patients in the United States, China, India and Sweden. Advance provision did not decrease pregnancy rates (odds ratio (OR) 0.98, 95% confidence interval (CI) 0.76 to 1.25 in studies for which we included twelve-month follow-up data; OR 0.48, 95% CI 0.18 to 1.29 in a study with seven-month follow-up data; OR 0.92, 95% CI 0.70 to 1.20 in studies for which we included six-month follow-up data; OR 0.49, 95% CI 0.09 to 2.74 in a study with three-month follow-up data), despite reported increased use (single use: OR 2.47, 95% CI 1.80 to 3.40; multiple use: OR 4.13, 95% CI 1.77 to 9.63) and faster use (weighted mean difference (WMD) -12.98 hours, 95% CI -16.66 to -9.31 hours). Advance provision did not lead to increased rates of sexually transmitted infections (OR 1.01, 95% CI 0.75 to 1.37), increased frequency of unprotected intercourse, or changes in contraceptive methods.Women who received emergency contraception in advance were equally likely to use condoms as other women. Authors’ conclusions Advance provision of emergency contraception did not reduce pregnancy rates when compared to conventional provision. Results from primary analyses suggest that advance provision does not negatively impact sexual and reproductive health behaviors and outcomes. Women should have easy access to emergency contraception, because it can decrease the chance of pregnancy.However, the interventions tested thus far have not reduced overall pregnancy rates in the populations studied.
Resumo:
If payment of goods is easily default, economic transaction may deeply suffer from the risk. This risky environment formed a mechanism that governs how economic transaction is realized, subsequently how trade credit is given. This paper distinguished ex ante bargaining and ex post enforcement, then modeled that bargaining power reduces trade credit ex ante, and ex post enforcement power and cash in hand of buyer can enhances both trade amount and trade credit in a presence of default risk. We modeled this relationship in order to organize findings from previous literature and from our original micro data on detailed transaction in China to consistently understand the mechanism governing trade credit. Then empirically tested a structure from the theoretical prediction with data. Results show that ex post enforcement power of seller mainly determines size of trade credit and trade amount, cash in hand of buyer can substitute with enforcement power; Bargaining power of seller is exercised to reduces trade credit and trade amount for avoiding default risk, but it simultaneously improves enforcement power as well. We found that ex post enforcement power consists of (ex ante) bargaining power on between two parties and intervention from the third party. However, its magnitude is far smaller than the direct impact to reduce trade credit and trade amount.
Implementation of the disruption predictor APODIS in JET Real Time Network using the MARTe framework
Resumo:
Disruptions in tokamaks devices are unavoidable, and they can have a significant impact on machine integrity. So it is very important have mechanisms to predict this phenomenon. Disruption prediction is a very complex task, not only because it is a multi-dimensional problem, but also because in order to be effective, it has to detect well in advance the actual disruptive event, in order to be able to use successful mitigation strategies. With these constraints in mind a real-time disruption predictor has been developed to be used in JET tokamak. The predictor has been designed to run in the Multithreaded Application Real-Time executor (MARTe) framework. The predictor ?Advanced Predictor Of DISruptions? (APODIS) is based on Support Vector Machine (SVM).
Resumo:
Current solutions to the interoperability problem in Home Automation systems are based on a priori agreements where protocols are standardized and later integrated through specific gateways. In this regards, spontaneous interoperability, or the ability to integrate new devices into the system with minimum planning in advance, is still considered a major challenge that requires new models of connectivity. In this paper we present an ontology-driven communication architecture whose main contribution is that it facilitates spontaneous interoperability at system model level by means of semantic integration. The architecture has been validated through a prototype and the main challenges for achieving complete spontaneous interoperability are also evaluated.
Resumo:
The aim of this study is to explain the changes in the real estate prices as well as in the real estate stock market prices, using some macro-economic explanatory variables, such as the gross domestic product (GDP), the real interest rate and the unemployment rate. Several regressions have been carried out in order to express some types of incremental and absolute deflated real estate lock market indexes in terms of the macro-economic variables. The analyses are applied to the Swedish economy. The period under study is 1984-1994. Time series on monthly data are used. i.e. the number of data-points is 132. If time leads/lags are introduced in the e regressions, significant improvements in the already high correlations are achieved. The signs of the coefficients for IR, UE and GDP are all what one would expect to see from an economic point of view: those for GDP are all positive, those for both IR and UE are negative. All the regressions have high R2 values. Both markets anticipate change in the unemployment rate by 6 to 9 months, which seems reasonable because such change can be forecast quite reliably. But, on the contrary, there is no reason why they should anticipate by 3-6 months changes in the interest rate that can hardly be reliably forecast so far in advance.
Resumo:
This paper studies the impact that different approaches of modeling the real-time use of the secondary regulation reserves have in the joint energy and reserve hourly scheduling of a price-taker pumped-storage hydropower plant. The unexpected imbalance costs due to the error between the forecasted real-time use of the reserves and the actual value are also studied and evaluated for the different approaches. The proposed methodology is applied to a daily-cycle and closed-loop pumped-storage hydropower plant. Preliminary results show that the deviations in the water volume at the end of the day are important when the percentage of the real-time use of reserves is unknown in advance, and also that the total income in all approaches after correcting these deviations is significantly lower than the maximum theoretical income.
Resumo:
A method is given for determining the time course and spatial extent of consistently and transiently task-related activations from other physiological and artifactual components that contribute to functional MRI (fMRI) recordings. Independent component analysis (ICA) was used to analyze two fMRI data sets from a subject performing 6-min trials composed of alternating 40-sec Stroop color-naming and control task blocks. Each component consisted of a fixed three-dimensional spatial distribution of brain voxel values (a “map”) and an associated time course of activation. For each trial, the algorithm detected, without a priori knowledge of their spatial or temporal structure, one consistently task-related component activated during each Stroop task block, plus several transiently task-related components activated at the onset of one or two of the Stroop task blocks only. Activation patterns occurring during only part of the fMRI trial are not observed with other techniques, because their time courses cannot easily be known in advance. Other ICA components were related to physiological pulsations, head movements, or machine noise. By using higher-order statistics to specify stricter criteria for spatial independence between component maps, ICA produced improved estimates of the temporal and spatial extent of task-related activation in our data compared with principal component analysis (PCA). ICA appears to be a promising tool for exploratory analysis of fMRI data, particularly when the time courses of activation are not known in advance.