889 resultados para call data, paradata, CATI, calling time, call scheduler, random assignment
Resumo:
Article
Resumo:
In this paper we try to fit a threshold autoregressive (TAR) model to time series data of monthly coconut oil prices at Cochin market. The procedure proposed by Tsay [7] for fitting the TAR model is briefly presented. The fitted model is compared with a simple autoregressive (AR) model. The results are in favour of TAR process. Thus the monthly coconut oil prices exhibit a type of non-linearity which can be accounted for by a threshold model.
Resumo:
This thesis entitled Reliability Modelling and Analysis in Discrete time Some Concepts and Models Useful in the Analysis of discrete life time data.The present study consists of five chapters. In Chapter II we take up the derivation of some general results useful in reliability modelling that involves two component mixtures. Expression for the failure rate, mean residual life and second moment of residual life of the mixture distributions in terms of the corresponding quantities in the component distributions are investigated. Some applications of these results are also pointed out. The role of the geometric,Waring and negative hypergeometric distributions as models of life lengths in the discrete time domain has been discussed already. While describing various reliability characteristics, it was found that they can be often considered as a class. The applicability of these models in single populations naturally extends to the case of populations composed of sub-populations making mixtures of these distributions worth investigating. Accordingly the general properties, various reliability characteristics and characterizations of these models are discussed in chapter III. Inference of parameters in mixture distribution is usually a difficult problem because the mass function of the mixture is a linear function of the component masses that makes manipulation of the likelihood equations, leastsquare function etc and the resulting computations.very difficult. We show that one of our characterizations help in inferring the parameters of the geometric mixture without involving computational hazards. As mentioned in the review of results in the previous sections, partial moments were not studied extensively in literature especially in the case of discrete distributions. Chapters IV and V deal with descending and ascending partial factorial moments. Apart from studying their properties, we prove characterizations of distributions by functional forms of partial moments and establish recurrence relations between successive moments for some well known families. It is further demonstrated that partial moments are equally efficient and convenient compared to many of the conventional tools to resolve practical problems in reliability modelling and analysis. The study concludes by indicating some new problems that surfaced during the course of the present investigation which could be the subject for a future work in this area.
Resumo:
Lateinische Schriftsteller im Original zu lesen, fällt vielen Schülerinnen und Schülern in der Lektürephase des Lateinunterrichts schwer. In der vorliegenden Dissertation wird untersucht, inwiefern gezielter Einsatz von Lernstrategien das Textverständnis verbessern kann. Strategisches Arbeiten mit Texten kann bereits zu einem sehr frühen Zeitpunkt in schriftbasierten Kulturen nachgewiesen werden. In dieser Arbeit werden Quellentexte aus der griechisch-römischen Antike und dem Mittelalter hinsichtlich texterschließender Strategien untersucht, systematisiert, kommentiert und im modernen Lateinunterricht eingesetzt. Dabei arbeiten die Schülerinnen und Schüler selbstgesteuert und forschend-entdeckend mit Reproduktionen antiker Papyri und Pergamente. Im Laufe des Unterrichtsprojektes, das ich CLAVIS, lat. für „Schlüssel“, nenne, lernen die Schüler im Zusammenhang mit Fachinhalten des Lateinunterrichts sechs antike Strategien der Texterschließung kennen. Diese Strategien werden heute noch genauso verwendet wie vor 2000 Jahren. Unter Berücksichtigung der Erkenntnisse der modernen Lernstrategieforschung wurden die Strategien ausgewählt, die als besonders effektive Maßnahmen zur Förderung von Textverständnis beurteilt werden, nämlich CONIUGATIO: Vorwissen aktivieren, LEGERE: mehrfaches und möglichst lautes Lesen, ACCIPERE: Hilfen annehmen, VERTERE: Übersetzen mit System, INTERROGARE: Fragen zulassen, SUMMA: Zusammenfassung erstellen. Ziel von CLAVIS ist es, Schülern ein Werkzeug zur systematischen Texterschließung an die Hand zu geben, das leicht zu merken ist und flexibel auf Texte jeder Art und jeder Sprache angewendet werden kann. Um die Effektivität des Unterrichtsprojektes CLAVIS zu überprüfen, wurde mit zwei parallel geführten 10. Klassen am Johann-Schöner-Gymnasium in Karlstadt im Schuljahr 2009/10 eine Vortest-Nachtest-Studie durchgeführt. Eine der Klassen wurde als Experimentalgruppe mit Intervention in Form von CLAVIS unterrichtet, die andere Klasse, die die Kontrollgruppe bildete, erhielt kein strategisches Training. Ein Fragebogen lieferte Informationen zur Vorgehensweise der Schüler bei der Textbearbeitung in Vortest und Nachtest (jeweils eine Übersetzung eines lateinischen Textes in identischem Schwierigkeitsgrad). Die Auswertung der Daten zeigte deutlich, dass Textverständnis und Übersetzungsfähigkeit sich bei denjenigen Schülern verbesserten, die die CLAVIS-Strategien im Nachtest angewendet hatten. Im Zusammenhang mit der Neugestaltung der Lehrpläne auf dem Hintergrund der Kompetenzorientierung ergeben sich für das Fach Latein neue Chancen, nicht nur inhaltlich wertvolle Zeugnisse der Antike zur allgemeinen, zweckfreien Persönlichkeitsbildung von Schülerinnen und Schülern einzusetzen, sondern gezielt Strategien zu vermitteln, die im Hinblick auf die in einer Informationsgesellschaft unverzichtbare Sprach- und Textkompetenz einen konkreten Nutzen haben.
Resumo:
Die zunehmende Vernetzung der Informations- und Kommunikationssysteme führt zu einer weiteren Erhöhung der Komplexität und damit auch zu einer weiteren Zunahme von Sicherheitslücken. Klassische Schutzmechanismen wie Firewall-Systeme und Anti-Malware-Lösungen bieten schon lange keinen Schutz mehr vor Eindringversuchen in IT-Infrastrukturen. Als ein sehr wirkungsvolles Instrument zum Schutz gegenüber Cyber-Attacken haben sich hierbei die Intrusion Detection Systeme (IDS) etabliert. Solche Systeme sammeln und analysieren Informationen von Netzwerkkomponenten und Rechnern, um ungewöhnliches Verhalten und Sicherheitsverletzungen automatisiert festzustellen. Während signatur-basierte Ansätze nur bereits bekannte Angriffsmuster detektieren können, sind anomalie-basierte IDS auch in der Lage, neue bisher unbekannte Angriffe (Zero-Day-Attacks) frühzeitig zu erkennen. Das Kernproblem von Intrusion Detection Systeme besteht jedoch in der optimalen Verarbeitung der gewaltigen Netzdaten und der Entwicklung eines in Echtzeit arbeitenden adaptiven Erkennungsmodells. Um diese Herausforderungen lösen zu können, stellt diese Dissertation ein Framework bereit, das aus zwei Hauptteilen besteht. Der erste Teil, OptiFilter genannt, verwendet ein dynamisches "Queuing Concept", um die zahlreich anfallenden Netzdaten weiter zu verarbeiten, baut fortlaufend Netzverbindungen auf, und exportiert strukturierte Input-Daten für das IDS. Den zweiten Teil stellt ein adaptiver Klassifikator dar, der ein Klassifikator-Modell basierend auf "Enhanced Growing Hierarchical Self Organizing Map" (EGHSOM), ein Modell für Netzwerk Normalzustand (NNB) und ein "Update Model" umfasst. In dem OptiFilter werden Tcpdump und SNMP traps benutzt, um die Netzwerkpakete und Hostereignisse fortlaufend zu aggregieren. Diese aggregierten Netzwerkpackete und Hostereignisse werden weiter analysiert und in Verbindungsvektoren umgewandelt. Zur Verbesserung der Erkennungsrate des adaptiven Klassifikators wird das künstliche neuronale Netz GHSOM intensiv untersucht und wesentlich weiterentwickelt. In dieser Dissertation werden unterschiedliche Ansätze vorgeschlagen und diskutiert. So wird eine classification-confidence margin threshold definiert, um die unbekannten bösartigen Verbindungen aufzudecken, die Stabilität der Wachstumstopologie durch neuartige Ansätze für die Initialisierung der Gewichtvektoren und durch die Stärkung der Winner Neuronen erhöht, und ein selbst-adaptives Verfahren eingeführt, um das Modell ständig aktualisieren zu können. Darüber hinaus besteht die Hauptaufgabe des NNB-Modells in der weiteren Untersuchung der erkannten unbekannten Verbindungen von der EGHSOM und der Überprüfung, ob sie normal sind. Jedoch, ändern sich die Netzverkehrsdaten wegen des Concept drif Phänomens ständig, was in Echtzeit zur Erzeugung nicht stationärer Netzdaten führt. Dieses Phänomen wird von dem Update-Modell besser kontrolliert. Das EGHSOM-Modell kann die neuen Anomalien effektiv erkennen und das NNB-Model passt die Änderungen in Netzdaten optimal an. Bei den experimentellen Untersuchungen hat das Framework erfolgversprechende Ergebnisse gezeigt. Im ersten Experiment wurde das Framework in Offline-Betriebsmodus evaluiert. Der OptiFilter wurde mit offline-, synthetischen- und realistischen Daten ausgewertet. Der adaptive Klassifikator wurde mit dem 10-Fold Cross Validation Verfahren evaluiert, um dessen Genauigkeit abzuschätzen. Im zweiten Experiment wurde das Framework auf einer 1 bis 10 GB Netzwerkstrecke installiert und im Online-Betriebsmodus in Echtzeit ausgewertet. Der OptiFilter hat erfolgreich die gewaltige Menge von Netzdaten in die strukturierten Verbindungsvektoren umgewandelt und der adaptive Klassifikator hat sie präzise klassifiziert. Die Vergleichsstudie zwischen dem entwickelten Framework und anderen bekannten IDS-Ansätzen zeigt, dass der vorgeschlagene IDSFramework alle anderen Ansätze übertrifft. Dies lässt sich auf folgende Kernpunkte zurückführen: Bearbeitung der gesammelten Netzdaten, Erreichung der besten Performanz (wie die Gesamtgenauigkeit), Detektieren unbekannter Verbindungen und Entwicklung des in Echtzeit arbeitenden Erkennungsmodells von Eindringversuchen.
Resumo:
We shall call an n × p data matrix fully-compositional if the rows sum to a constant, and sub-compositional if the variables are a subset of a fully-compositional data set1. Such data occur widely in archaeometry, where it is common to determine the chemical composition of ceramic, glass, metal or other artefacts using techniques such as neutron activation analysis (NAA), inductively coupled plasma spectroscopy (ICPS), X-ray fluorescence analysis (XRF) etc. Interest often centres on whether there are distinct chemical groups within the data and whether, for example, these can be associated with different origins or manufacturing technologies
Resumo:
The statistical analysis of compositional data should be treated using logratios of parts, which are difficult to use correctly in standard statistical packages. For this reason a freeware package, named CoDaPack was created. This software implements most of the basic statistical methods suitable for compositional data. In this paper we describe the new version of the package that now is called CoDaPack3D. It is developed in Visual Basic for applications (associated with Excel©), Visual Basic and Open GL, and it is oriented towards users with a minimum knowledge of computers with the aim at being simple and easy to use. This new version includes new graphical output in 2D and 3D. These outputs could be zoomed and, in 3D, rotated. Also a customization menu is included and outputs could be saved in jpeg format. Also this new version includes an interactive help and all dialog windows have been improved in order to facilitate its use. To use CoDaPack one has to access Excel© and introduce the data in a standard spreadsheet. These should be organized as a matrix where Excel© rows correspond to the observations and columns to the parts. The user executes macros that return numerical or graphical results. There are two kinds of numerical results: new variables and descriptive statistics, and both appear on the same sheet. Graphical output appears in independent windows. In the present version there are 8 menus, with a total of 38 submenus which, after some dialogue, directly call the corresponding macro. The dialogues ask the user to input variables and further parameters needed, as well as where to put these results. The web site http://ima.udg.es/CoDaPack contains this freeware package and only Microsoft Excel© under Microsoft Windows© is required to run the software. Kew words: Compositional data Analysis, Software
Resumo:
Una conferència pot començar de moltes maneres. Josep Call va triar iniciar-ne una amb un elogi als seus col•laboradors, perquè sense ells —va dir— la recerca que fa no hauria estat possible. Fins aquí no se’ns hauria de fer estrany, si no fos perquè allò que Call volia explicar és que la capacitat de compartir activament i de pensar plegats és una de les bases de la intencionalitat compartida, la tesi que van venir a defensar i el tret que, segons ell, ens diferencia dels primats. Call va ser el segon convidat de la Butaca Jaume Casademont, en una sessió que es va dur a terme al Casino de Girona
Resumo:
Objetivo: determinar la prevalencia en los últimos 6 meses de los síntomas de cuello y miembro superior además de sus factores asociados, en trabajadores de una entidad financiera call center en el periodo comprendido de abril a octubre del año 2009. Métodos: se realizó un análisis descriptivo trasversal, a través de la aplicación de un cuestionario de morbilidad sentida que abarcó aspectos demográficos, antecedentes personales y antecedentes laborales. La presencia de los síntomas se documentó en una tabla donde se confrontaron los síntomas osteomusculares y los segmentos afectados en los últimos 6 meses. Adicionalmente se les pidió a los sujetos identificar la postura más frecuente durante su trabajo mediante un diagrama. Resultados: los síntomas más prevalentes fueron dolor en la muñeca derecha (0,44; IC 95% 0,37 0,51), dolor en el cuello (0,43; IC95% 0,36 0,50), rigidez en el cuello (0,33; IC95% 0,26 0,40) y dolor en la mano derecha (0,36; IC95% 0,29 0,43). Se encontraron diferencias estadísticamente significativas en cuanto al género en la presencia de dolor en muñeca derecha (26,1% hombres contra 73,9% mujeres; p=0,005), dolor en mano derecha (25% hombres versus 75% mujeres; p=0,008), síntomas neurológicos en mano derecha (19,4% versus 80,6%; p=0,001) y dolor en hombro derecho (26,3% hombres versus 73,7% mujeres; p=0,048). También se evidencio una diferencia estadísticamente significativa en la prevalencia del síntoma dolor en muñeca derecha según el auto reporte de mayor exigencia en el desempeño (85,2% con la percepción de mayor exigencias, versus 14,8% en los sujetos que no; p=0,020). Además una diferencia estadísticamente significativa con mayor presencia de síntomas en muñecas y manos en sujetos con postura en dorsiflexión de de las mismas (muñeca derecha 72,8%, p=0,001; muñeca izquierda 43,5%, p=0,020; mano derecha 62%, p=0,003). Conclusión: después de realizar el estudio se encontró como principal síntoma el dolor, localizado en: la muñeca derecha, el cuello, la mano derecha y el hombro derecho, con diferencias mayores para el género femenino según la postura de las muñecas, lo que es compatible con las condiciones de trabajo y la respuesta fisiológica a estas condiciones.
Resumo:
A voice-over audio file recorded for an emergency call scene as part of a Locomotor virtual patient case.
Resumo:
El sector BPO&O es un sector con alto potencial en Colombia que aún se encuentra Incipiente. Dentro de este sector, los Call Centers juegan un papel importante para su desarrollo y Barranquilla posee grandes cualidades para permitir este crecimiento si se plantean las estrategias adecuadas.
Resumo:
La crisis financiera hipotecaria de 2008 en la que se declaró en quiebra el banco de inversión Lehman Brothers, se desarrolló en un ambiente que contemplaba apalancamientos financieros excesivos y el uso de derivados financieros de crédito innovadores. Razón por la cual, a partir del estudio de caso de quiebra de este banco de inversión y el análisis de las causas y consecuencias del ambiente desregulatorio que surgió en Estados Unidos desde la década de los 30 hasta el 2000, se orienta la investigación a indagar sobre lo que sucede en términos regulatorios y empresariales en el mercado de valores colombiano y así lograr definir objetivos que permitan el crecimiento del mercado de derivados exóticos en Colombia bajo un marco de responsabilidad financiera y ética empresarial.
Resumo:
Esta tesis está dividida en dos partes: en la primera parte se presentan y estudian los procesos telegráficos, los procesos de Poisson con compensador telegráfico y los procesos telegráficos con saltos. El estudio presentado en esta primera parte incluye el cálculo de las distribuciones de cada proceso, las medias y varianzas, así como las funciones generadoras de momentos entre otras propiedades. Utilizando estas propiedades en la segunda parte se estudian los modelos de valoración de opciones basados en procesos telegráficos con saltos. En esta parte se da una descripción de cómo calcular las medidas neutrales al riesgo, se encuentra la condición de no arbitraje en este tipo de modelos y por último se calcula el precio de las opciones Europeas de compra y venta.
Resumo:
Resumen basado en de de las autoras