886 resultados para real option analysis
Resumo:
Die zunehmende Vernetzung der Informations- und Kommunikationssysteme führt zu einer weiteren Erhöhung der Komplexität und damit auch zu einer weiteren Zunahme von Sicherheitslücken. Klassische Schutzmechanismen wie Firewall-Systeme und Anti-Malware-Lösungen bieten schon lange keinen Schutz mehr vor Eindringversuchen in IT-Infrastrukturen. Als ein sehr wirkungsvolles Instrument zum Schutz gegenüber Cyber-Attacken haben sich hierbei die Intrusion Detection Systeme (IDS) etabliert. Solche Systeme sammeln und analysieren Informationen von Netzwerkkomponenten und Rechnern, um ungewöhnliches Verhalten und Sicherheitsverletzungen automatisiert festzustellen. Während signatur-basierte Ansätze nur bereits bekannte Angriffsmuster detektieren können, sind anomalie-basierte IDS auch in der Lage, neue bisher unbekannte Angriffe (Zero-Day-Attacks) frühzeitig zu erkennen. Das Kernproblem von Intrusion Detection Systeme besteht jedoch in der optimalen Verarbeitung der gewaltigen Netzdaten und der Entwicklung eines in Echtzeit arbeitenden adaptiven Erkennungsmodells. Um diese Herausforderungen lösen zu können, stellt diese Dissertation ein Framework bereit, das aus zwei Hauptteilen besteht. Der erste Teil, OptiFilter genannt, verwendet ein dynamisches "Queuing Concept", um die zahlreich anfallenden Netzdaten weiter zu verarbeiten, baut fortlaufend Netzverbindungen auf, und exportiert strukturierte Input-Daten für das IDS. Den zweiten Teil stellt ein adaptiver Klassifikator dar, der ein Klassifikator-Modell basierend auf "Enhanced Growing Hierarchical Self Organizing Map" (EGHSOM), ein Modell für Netzwerk Normalzustand (NNB) und ein "Update Model" umfasst. In dem OptiFilter werden Tcpdump und SNMP traps benutzt, um die Netzwerkpakete und Hostereignisse fortlaufend zu aggregieren. Diese aggregierten Netzwerkpackete und Hostereignisse werden weiter analysiert und in Verbindungsvektoren umgewandelt. Zur Verbesserung der Erkennungsrate des adaptiven Klassifikators wird das künstliche neuronale Netz GHSOM intensiv untersucht und wesentlich weiterentwickelt. In dieser Dissertation werden unterschiedliche Ansätze vorgeschlagen und diskutiert. So wird eine classification-confidence margin threshold definiert, um die unbekannten bösartigen Verbindungen aufzudecken, die Stabilität der Wachstumstopologie durch neuartige Ansätze für die Initialisierung der Gewichtvektoren und durch die Stärkung der Winner Neuronen erhöht, und ein selbst-adaptives Verfahren eingeführt, um das Modell ständig aktualisieren zu können. Darüber hinaus besteht die Hauptaufgabe des NNB-Modells in der weiteren Untersuchung der erkannten unbekannten Verbindungen von der EGHSOM und der Überprüfung, ob sie normal sind. Jedoch, ändern sich die Netzverkehrsdaten wegen des Concept drif Phänomens ständig, was in Echtzeit zur Erzeugung nicht stationärer Netzdaten führt. Dieses Phänomen wird von dem Update-Modell besser kontrolliert. Das EGHSOM-Modell kann die neuen Anomalien effektiv erkennen und das NNB-Model passt die Änderungen in Netzdaten optimal an. Bei den experimentellen Untersuchungen hat das Framework erfolgversprechende Ergebnisse gezeigt. Im ersten Experiment wurde das Framework in Offline-Betriebsmodus evaluiert. Der OptiFilter wurde mit offline-, synthetischen- und realistischen Daten ausgewertet. Der adaptive Klassifikator wurde mit dem 10-Fold Cross Validation Verfahren evaluiert, um dessen Genauigkeit abzuschätzen. Im zweiten Experiment wurde das Framework auf einer 1 bis 10 GB Netzwerkstrecke installiert und im Online-Betriebsmodus in Echtzeit ausgewertet. Der OptiFilter hat erfolgreich die gewaltige Menge von Netzdaten in die strukturierten Verbindungsvektoren umgewandelt und der adaptive Klassifikator hat sie präzise klassifiziert. Die Vergleichsstudie zwischen dem entwickelten Framework und anderen bekannten IDS-Ansätzen zeigt, dass der vorgeschlagene IDSFramework alle anderen Ansätze übertrifft. Dies lässt sich auf folgende Kernpunkte zurückführen: Bearbeitung der gesammelten Netzdaten, Erreichung der besten Performanz (wie die Gesamtgenauigkeit), Detektieren unbekannter Verbindungen und Entwicklung des in Echtzeit arbeitenden Erkennungsmodells von Eindringversuchen.
Resumo:
Fueled by ever-growing genomic information and rapid developments of proteomics–the large scale analysis of proteins and mapping its functional role has become one of the most important disciplines for characterizing complex cell function. For building functional linkages between the biomolecules, and for providing insight into the mechanisms of biological processes, last decade witnessed the exploration of combinatorial and chip technology for the detection of bimolecules in a high throughput and spatially addressable fashion. Among the various techniques developed, the protein chip technology has been rapid. Recently we demonstrated a new platform called “Spacially addressable protein array” (SAPA) to profile the ligand receptor interactions. To optimize the platform, the present study investigated various parameters such as the surface chemistry and role of additives for achieving high density and high-throughput detection with minimal nonspecific protein adsorption. In summary the present poster will address some of the critical challenges in protein micro array technology and the process of fine tuning to achieve the optimum system for solving real biological problems.
Resumo:
One of the tantalising remaining problems in compositional data analysis lies in how to deal with data sets in which there are components which are essential zeros. By an essential zero we mean a component which is truly zero, not something recorded as zero simply because the experimental design or the measuring instrument has not been sufficiently sensitive to detect a trace of the part. Such essential zeros occur in many compositional situations, such as household budget patterns, time budgets, palaeontological zonation studies, ecological abundance studies. Devices such as nonzero replacement and amalgamation are almost invariably ad hoc and unsuccessful in such situations. From consideration of such examples it seems sensible to build up a model in two stages, the first determining where the zeros will occur and the second how the unit available is distributed among the non-zero parts. In this paper we suggest two such models, an independent binomial conditional logistic normal model and a hierarchical dependent binomial conditional logistic normal model. The compositional data in such modelling consist of an incidence matrix and a conditional compositional matrix. Interesting statistical problems arise, such as the question of estimability of parameters, the nature of the computational process for the estimation of both the incidence and compositional parameters caused by the complexity of the subcompositional structure, the formation of meaningful hypotheses, and the devising of suitable testing methodology within a lattice of such essential zero-compositional hypotheses. The methodology is illustrated by application to both simulated and real compositional data
Resumo:
One of the disadvantages of old age is that there is more past than future: this, however, may be turned into an advantage if the wealth of experience and, hopefully, wisdom gained in the past can be reflected upon and throw some light on possible future trends. To an extent, then, this talk is necessarily personal, certainly nostalgic, but also self critical and inquisitive about our understanding of the discipline of statistics. A number of almost philosophical themes will run through the talk: search for appropriate modelling in relation to the real problem envisaged, emphasis on sensible balances between simplicity and complexity, the relative roles of theory and practice, the nature of communication of inferential ideas to the statistical layman, the inter-related roles of teaching, consultation and research. A list of keywords might be: identification of sample space and its mathematical structure, choices between transform and stay, the role of parametric modelling, the role of a sample space metric, the underused hypothesis lattice, the nature of compositional change, particularly in relation to the modelling of processes. While the main theme will be relevance to compositional data analysis we shall point to substantial implications for general multivariate analysis arising from experience of the development of compositional data analysis…
Resumo:
The main instrument used in psychological measurement is the self-report questionnaire. One of its major drawbacks however is its susceptibility to response biases. A known strategy to control these biases has been the use of so-called ipsative items. Ipsative items are items that require the respondent to make between-scale comparisons within each item. The selected option determines to which scale the weight of the answer is attributed. Consequently in questionnaires only consisting of ipsative items every respondent is allotted an equal amount, i.e. the total score, that each can distribute differently over the scales. Therefore this type of response format yields data that can be considered compositional from its inception. Methodological oriented psychologists have heavily criticized this type of item format, since the resulting data is also marked by the associated unfavourable statistical properties. Nevertheless, clinicians have kept using these questionnaires to their satisfaction. This investigation therefore aims to evaluate both positions and addresses the similarities and differences between the two data collection methods. The ultimate objective is to formulate a guideline when to use which type of item format. The comparison is based on data obtained with both an ipsative and normative version of three psychological questionnaires, which were administered to 502 first-year students in psychology according to a balanced within-subjects design. Previous research only compared the direct ipsative scale scores with the derived ipsative scale scores. The use of compositional data analysis techniques also enables one to compare derived normative score ratios with direct normative score ratios. The addition of the second comparison not only offers the advantage of a better-balanced research strategy. In principle it also allows for parametric testing in the evaluation
Resumo:
A compositional time series is obtained when a compositional data vector is observed at different points in time. Inherently, then, a compositional time series is a multivariate time series with important constraints on the variables observed at any instance in time. Although this type of data frequently occurs in situations of real practical interest, a trawl through the statistical literature reveals that research in the field is very much in its infancy and that many theoretical and empirical issues still remain to be addressed. Any appropriate statistical methodology for the analysis of compositional time series must take into account the constraints which are not allowed for by the usual statistical techniques available for analysing multivariate time series. One general approach to analyzing compositional time series consists in the application of an initial transform to break the positive and unit sum constraints, followed by the analysis of the transformed time series using multivariate ARIMA models. In this paper we discuss the use of the additive log-ratio, centred log-ratio and isometric log-ratio transforms. We also present results from an empirical study designed to explore how the selection of the initial transform affects subsequent multivariate ARIMA modelling as well as the quality of the forecasts
Resumo:
Introducción: la problemática del Sistema Colombiano de Salud, no favorece que los pacientes reciban un manejo interdisciplinario integrado para disminuir su exceso de peso. Metodología: estudio retrospectivo, comparativo y de serie de casos en el período comprendido entre junio de 2006 y febrero de 2009 en el centro de investigación endocrinológica Endocare. Se seleccionaron 62 pacientes (46 mujeres y 16 varones entre 22 y 88 años): 31 pacientes en el grupo interdisciplinario integrado y 31 pacientes en el grupo multidisciplinario desintegrado. Se les realizó un manejo por endocrinología, nutrición y deportología; si recibían y cumplían con las tres valoraciones en Endocare se definían como tratamiento interdisciplinario integrado de lo contrario se definían como tratamiento multidisciplinario desintegrado. Se evaluaron los cambios de peso y de perímetro de cintura logrados por cada paciente durante doce meses. Resultados: se observó una diferencia estadísticamente significativa mediante un análisis Anova de un factor para la reducción de peso, con una media de reducción de -6% (-8 a -3.9%) del manejo integrado comparado con -3.6% (-4.5 a -2.8%) del manejo desintegrado (IC95%,F= 4.58,p= 0.036). También se observó una disminución del perímetro de cintura, con una media de reducción de -8.1% (-10.6 a -5.5%) del manejo integrado comparado con -4.6% (-5.9 a -3.3%) del manejo desintegrado (IC95%,F=4.58,p=0.036), en un seguimiento a doce meses. Se encontró correlación entre disminución de peso y disminución del perímetro de cintura (Pearson=0.455 p=0.044). Discusión: es posible que un manejo interdisciplinario integrado produzca a un año una mayor reducción de exceso de peso y cintura.
Resumo:
El pasado Mundial de Fútbol Categoría Sub-20 fue una gran oportunidad que tuvo Colombia para seguir mostrándose a nivel internacional y para mejorar su imagen negativa de ser un país violento. Debido al éxito de este evento, y que estuvo a la altura de los de su tipo, ya que también superó en record de asistencia a los que se habían realizado anteriormente (FIFA.COM, 2011), y sumado a las declaraciones del presidente de la FIFA: "Colombia está preparada para la gran Copa Mundial de FIFA, pero de momento deberá esperar hasta el año 2026, porque las sedes de los años 2014 (Brasil), 2018 (Rusia) y 2022 (Qatar) ya están asignadas" (Semana, 2011); este trabajo pretende analizar con base en los principales indicadores (infraestructuras, movilidad, vías, ciudades, seguridad), si Bogotá podría ser sede principal del mundial de fútbol del 2026. Para lograr el objetivo se tomaron como referencia los diferentes mundiales anteriormente realizados. Se hizo un análisis comparativo entre Johannesburgo (sede principal del Mundial realizado en Suráfrica en el 2010) y Bogotá, en 5 factores que permiten visualizar las fortalezas y debilidades de la capital colombiana para poder ser sede principal de un Mundial. Se presentan conclusiones.
Resumo:
En la actualidad el Pacífico es visto como un espacio de oportunidades para aprovechar, bien sea de manera individual o a través de la creación de iniciativas comunes que conduzcan a mayores acercamientos a esta región. Si se apela a las iniciativas, es preciso estudiar el Acuerdo del Pacífico – AP, un espacio conformado por México, Colombia, Perú y Chile, que se plantea como principal objetivo el acercamiento a la región de Asia – Pacífico. Así, el presente documento intenta hacer un aporte a la disciplina de las Relaciones Internacionales por medio de un análisis de estas dos iniciativas, haciendo énfasis sobre el Acuerdo del Pacífico, también llamado Alianza del Pacífico, espacio que en la actualidad se perfila como uno de los de mayor dinamismo y relevancia en Latinoamérica.
Resumo:
Real-time geoparsing of social media streams (e.g. Twitter, YouTube, Instagram, Flickr, FourSquare) is providing a new 'virtual sensor' capability to end users such as emergency response agencies (e.g. Tsunami early warning centres, Civil protection authorities) and news agencies (e.g. Deutsche Welle, BBC News). Challenges in this area include scaling up natural language processing (NLP) and information retrieval (IR) approaches to handle real-time traffic volumes, reducing false positives, creating real-time infographic displays useful for effective decision support and providing support for trust and credibility analysis using geosemantics. I will present in this seminar on-going work by the IT Innovation Centre over the last 4 years (TRIDEC and REVEAL FP7 projects) in building such systems, and highlights our research towards improving trustworthy and credible of crisis map displays and real-time analytics for trending topics and influential social networks during major news worthy events.
Resumo:
El proyecto que se quiere plantear es la creación de una Plataforma electrónica a través de la cual se pretende agrupar a los diferentes proveedores que intervienen en la cadena de abastecimiento de la comunidad logística de San Antonio, abriendo la posibilidad de participación de empresas grandes y pequeñas y más aun promoviendo la creación de las mismas por parte de los ciudadanos de la región, de esta manera, se eliminan las brechas asimétricas existentes entre la oferta y la demanda permitiendo que las empresas medianas y grandes accedan a ofertas y transacciones con empresas proveedoras medianas y pequeñas. Dicho proyecto, tiene como objetivo general el consolidar los procesos de abastecimiento implementados por las empresas a través de la organización y estandarización de los mismos mediante el uso del portal, planteado en el presente proyecto, como apoyo tecnológico. Existen dos conceptos básicos a analizar de manera teórica dentro del proyecto, el primero de ellos es el de clúster logístico-portuario, lo cuales son reconocidos como instrumentos importantes para el progreso del desarrollo industrial, innovación, competitividad y crecimiento, tomando como ejemplos a los puertos de Valencia y Long Beach en la ciudad de Los Ángeles. El segundo concepto es el de E-Procurement, el cual se desarrolla siguiendo los pasos básicos de una cadena de abastecimiento tradicional, sin embargo, lo que genera un cambio real dentro de los procesos es el hecho que los procesos de cotización y seguimiento de proveedores se van a llevar a cabo a través de una plataforma electrónica con base a las evaluaciones que se llevan a cabo por parte de las empresas demandantes de los productos o servicios ofrecidos por las compañías proveedoras. (Renko, 2011) De la misma manera, se tomaran varios proyectos de e-procurement desarrollados a nivel mundial como base comparativa y de apoyo para el presente proyecto tales como: HYDRA: Es un sistema que tiene su soporte en la web, el cual es orientado “en el medio” lo cual lo hace un sistema con una arquitectura híbrida, que posee tanto un diseño en capas como una estructura comprensiva para desarrollar integración de negocios, colaboración y monitoreo en la gestión de la cadena de suministro (Renko, 2011) IPT: BidNet ha proporcionado servicios de oferta de información a miles de proveedores y compradores de bienes en el ámbito gubernamental por más de 25 años. (Bidnet, 2013) E-BUYPLACE: E-buyplace.com es el 1° especialista en SupplierRelationship Management que ha desarrollado un original y singular SRM 100% a través de Internet. (e-buyplace, 2013) RosettaNet: La iniciativa RosettaNet anima a optimizar los procesos de la cadena de suministro mediante el establecimiento, implementación y promoción de estándares abiertos en el mercado e-Business (AQS, Advance Quality Solutions, 2002)
Resumo:
Existen en la actualidad múltiples modelos de gestión de conocimiento y medición del capital humano, los cuales son aplicados en las organizaciones, pero ninguno de éstos ha sido diseñado para Instituciones de Educación Superior. En este trabajo se hace un recuento de algunos de los modelos de gestión del conocimiento y capital intelectual más destacados como el Modelo de conversión del conocimiento de Nonaka y Takeuchi, el Modelo de GC de Arthur Andersen, el Cuadro de Mando Integral de Kaplan y Norton, entre otros, pero es a partir del Modelo Organizacional Estrella de Galbraith que se presenta una propuesta teórica para caracterizar un modelo de gestión del conocimiento aplicable a las funciones universitarias de investigación y extensión en la Universidad CES – Medellín, Colombia, a través de una investigación cualitativa en donde, a partir de la correlación entre la teoría general de la GC, particularmente de los modelos y el análisis de las características de la Universidad CES, así como la revisión sistemática, el grupo focal y el análisis documental se propone el Modelo Hexagonal de GC.
Resumo:
Esta investigación se desarrolla, bajo una hipótesis, la cual se busca comprobar, analizando la evidencia encontrada en documentos Teóricos investigativos de autores expertos y especialistas en el tema y en publicaciones de la prensa nacional además de las leyes que corresponden a las dos reformas de la salud la 1122 de 2007 y la 1438 de 2011. La hipótesis planteada para esta investigación es que “mientras los nuevos planteamientos para la reforma de la salud no incluyan dentro de su propuesta una solución evidente a los principales problemas encontrados en el sistema de salud actual y no establezca un control fiscal y una regulación verdadera sobre el manejo de los fondos del sistema de salud; Los principios de universalidad, eficiencia, integralidad, libre escogencia, competencia sana y calidad no serán cumplidos y por lo tanto el pueblo Colombiano no podrá ejercer su derecho a la salud como lo plantea la Constitución Política de Colombia de 1991 y la ley 100 de 1993. Para comprobar la hipótesis se han seleccionado como documentos a analizar, tres publicaciones de la prensa nacional, cuatro de autores expertos y especializados en el tema y tres documentos adicionales que corresponden a las dos reformas realizadas al sistema de salud en los años 2007 y 2011 y a la nueva propuesta radicada por el gobierno nacional a inicios de este año. Es de suma importancia conocer las apreciaciones de los autores sobre el grupo de variables que se utilizarán para desarrollar este estudio. Estas variables pertenecen a aquellas que influencian el equilibrio financiero y que adicionalmente afectan directamente a la población impactando su bienestar y su calidad de vida. Entre esas variables se destacan (i) aspectos demográficos y de la fuerza laboral, (ii) aspectos económicos como los niveles de ingreso, salarios y empleo, (iii) cobertura del sistema de salud, (iv) calidad y acceso a los servicios del sistema, (v) duplicidad del gasto (vi) flujo de los recursos del sistema de salud (problemas institucionales), (vii) Gasto en salud y estabilidad financiera y (viii) regulación financiera. El Formato utilizado para la comparación análisis y síntesis de los documentos teóricos investigativos y de las publicaciones de la prensa nacional, consta de tres cuerpos. El primero, contiene las características relacionadas con tiempo y espacio de la publicación. El segundo, hace énfasis en el contenido y en los temas y variables de interés para el desarrollo de la investigación. Y el tercero hace énfasis en el contenido y en los temas y variables de interés para el desarrollo de la investigación. Al hacer el análisis, síntesis y comparación de estos artículos se resolverán algunos interrogantes que pueden llevarnos a comprobar la hipótesis como los son:¿Cuáles han sido los principales logros en salud con el sistema actual?, ¿Cuáles han sido las principales fallas o problemas en el sistema actual de salud?, ¿Hay un buen manejo de los fondos destinados al sistema de Salud actual?, ¿La gestión financiera del Sistema de Salud Colombiano, permite que este sea un sistema de salud sostenible y perdurable para todos los colombianos?. Adicionalmente, existen otros interrogantes a destacar como lo son ¿En qué consiste la nueva reforma de Salud propuesta para el 2013?, ¿Los cambios planteados en la última propuesta para hacer una reforma al sistema de salud, realmente conducen a un avance o dejan de lado los principales problemas de la seguridad social en Colombia?, ¿La nueva propuesta para la reforma de la salud busca lograr una mejora radical en la gestión financiera del Sistema de Salud Colombiano?, ¿Cuál es la percepción de los principales autores, especialistas en el tema en cuanto a la erradicación total de los problemas más álgidos en el actual Sistema de Salud Colombiano, con la nueva propuesta para la reforma de la salud para el 2013? Este trabajo de investigación surgió debido a la radicación de una nueva propuesta para la reforma a la salud y la polémica que se ha generado alrededor de esta. Veinte años después de la aprobación de la ley 100, se han identificado logros importantes principalmente en cuanto a cobertura; lastimosamente, actualmente se han manifestado problemas financieros y de liquidez, a pesar de lo cual, vale la pena destacar que el sistema fue rentable e incluso generó excedentes financieros en su operación, durante sus primeros 10 años de funcionamiento. Ahora, según la evidencia teórica investigativa y de la prensa nacional, se determinará si la nueva propuesta para la reforma de la salud es una buena opción para el país.
Resumo:
A partir del conocimiento que se posee referente al desarrollo de las ladrilleras del sector de Nemocón y las herramientas y disciplinas aplicables al estudio de un plan de internacionalización, se determina desarrollar el siguiente proceso. En primer lugar, a partir de la necesidad de diagnosticar un análisis del sector ladrillero en Nemocón Cundinamarca, se hace indispensable utilizar herramientas de la línea de estrategia. Se requiere de un estudio matricial del comportamiento del sector con su respectivo análisis y para generar un mayor soporte técnico al análisis del sector, se requiere de un estudio de planeación estratégica por escenarios el cual proveerá a la investigación de diversas alternativas en la selección de variables fundamentales del sistema. Acerca del estudio de los mercados tanto nacional como internacional, se dispondrá de las habilidades básicas de la línea de mercadeo. Es importante que a partir del análisis del sector y de la obtención de algunas variables importantes, se indague a profundidad acerca de las variables más importantes para el desarrollo de una matriz de mercados. La idea de la aplicación de esta matriz, es generar unos filtros de países seleccionados a partir de variables anteriormente especificadas con el fin de determinar un único mercado que será el objetivo para el plan de internacionalización. Sobre el país seleccionado se aplica un estudio de mercado y un estudio de viabilidad financiera bajo los cuales se obtienen las conclusiones del plan de internacionalización, su viabilidad y sus recomendaciones.
Resumo:
En las instituciones hospitalarias es fundamental el tema relacionado con los medicamentos y dispositivos médicos para la atención del paciente, por lo tanto el mecanismo de adquisición y disponibilidad de éstos productos, ha llevado a la participación masiva de operadores logísticos (Outsoursing) interviniendo áreas de la cadena de suministros, desde el punto de fabricación con el producto terminado hasta la dispensación del medicamento o dispositivo médico, para que ser usado o administrado al paciente. Los operadores logísticos han emprendido una búsqueda de soluciones por medio de diferentes metodologías y estrategias que permitan entregar a tiempo en las farmacias hospitalarias, conservando las propiedades físicas y químicas de los medicamentos y dispositivos médicos, garantizando así la calidad de los productos. En ésta tesis se plantea una nueva alternativa de gestión de medicamentos y dispositivos médicos en un operador logístico de productos farmacéuticos a través de la teoría de restricciones (TOC), para emprender acciones que permitan analizar el sistema bajo esta metodología, intervenir de manera oportuna, impactar y estimular al personal a trabajar en la búsqueda del mejoramiento , aumentando a su vez la velocidad del flujo de operación en toda la cadena de suministros, basada no en el mejoramiento de los óptimos locales o de los subprocesos sino en la identificación de la verdadera restricción del sistema, permitiendo realizar un análisis más a fondo encontrando el conflicto raíz para mejorar el sistema a nivel global.