938 resultados para Business intelligence, data warehouse, sql server


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Die Auszeichnungssprache XML dient zur Annotation von Dokumenten und hat sich als Standard-Datenaustauschformat durchgesetzt. Dabei entsteht der Bedarf, XML-Dokumente nicht nur als reine Textdateien zu speichern und zu transferieren, sondern sie auch persistent in besser strukturierter Form abzulegen. Dies kann unter anderem in speziellen XML- oder relationalen Datenbanken geschehen. Relationale Datenbanken setzen dazu bisher auf zwei grundsätzlich verschiedene Verfahren: Die XML-Dokumente werden entweder unverändert als binäre oder Zeichenkettenobjekte gespeichert oder aber aufgespalten, sodass sie in herkömmlichen relationalen Tabellen normalisiert abgelegt werden können (so genanntes „Flachklopfen“ oder „Schreddern“ der hierarchischen Struktur). Diese Dissertation verfolgt einen neuen Ansatz, der einen Mittelweg zwischen den bisherigen Lösungen darstellt und die Möglichkeiten des weiterentwickelten SQL-Standards aufgreift. SQL:2003 definiert komplexe Struktur- und Kollektionstypen (Tupel, Felder, Listen, Mengen, Multimengen), die es erlauben, XML-Dokumente derart auf relationale Strukturen abzubilden, dass der hierarchische Aufbau erhalten bleibt. Dies bietet zwei Vorteile: Einerseits stehen bewährte Technologien, die aus dem Bereich der relationalen Datenbanken stammen, uneingeschränkt zur Verfügung. Andererseits lässt sich mit Hilfe der SQL:2003-Typen die inhärente Baumstruktur der XML-Dokumente bewahren, sodass es nicht erforderlich ist, diese im Bedarfsfall durch aufwendige Joins aus den meist normalisierten und auf mehrere Tabellen verteilten Tupeln zusammenzusetzen. In dieser Arbeit werden zunächst grundsätzliche Fragen zu passenden, effizienten Abbildungsformen von XML-Dokumenten auf SQL:2003-konforme Datentypen geklärt. Darauf aufbauend wird ein geeignetes, umkehrbares Umsetzungsverfahren entwickelt, das im Rahmen einer prototypischen Applikation implementiert und analysiert wird. Beim Entwurf des Abbildungsverfahrens wird besonderer Wert auf die Einsatzmöglichkeit in Verbindung mit einem existierenden, ausgereiften relationalen Datenbankmanagementsystem (DBMS) gelegt. Da die Unterstützung von SQL:2003 in den kommerziellen DBMS bisher nur unvollständig ist, muss untersucht werden, inwieweit sich die einzelnen Systeme für das zu implementierende Abbildungsverfahren eignen. Dabei stellt sich heraus, dass unter den betrachteten Produkten das DBMS IBM Informix die beste Unterstützung für komplexe Struktur- und Kollektionstypen bietet. Um die Leistungsfähigkeit des Verfahrens besser beurteilen zu können, nimmt die Arbeit Untersuchungen des nötigen Zeitbedarfs und des erforderlichen Arbeits- und Datenbankspeichers der Implementierung vor und bewertet die Ergebnisse.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Die zunehmende Vernetzung der Informations- und Kommunikationssysteme führt zu einer weiteren Erhöhung der Komplexität und damit auch zu einer weiteren Zunahme von Sicherheitslücken. Klassische Schutzmechanismen wie Firewall-Systeme und Anti-Malware-Lösungen bieten schon lange keinen Schutz mehr vor Eindringversuchen in IT-Infrastrukturen. Als ein sehr wirkungsvolles Instrument zum Schutz gegenüber Cyber-Attacken haben sich hierbei die Intrusion Detection Systeme (IDS) etabliert. Solche Systeme sammeln und analysieren Informationen von Netzwerkkomponenten und Rechnern, um ungewöhnliches Verhalten und Sicherheitsverletzungen automatisiert festzustellen. Während signatur-basierte Ansätze nur bereits bekannte Angriffsmuster detektieren können, sind anomalie-basierte IDS auch in der Lage, neue bisher unbekannte Angriffe (Zero-Day-Attacks) frühzeitig zu erkennen. Das Kernproblem von Intrusion Detection Systeme besteht jedoch in der optimalen Verarbeitung der gewaltigen Netzdaten und der Entwicklung eines in Echtzeit arbeitenden adaptiven Erkennungsmodells. Um diese Herausforderungen lösen zu können, stellt diese Dissertation ein Framework bereit, das aus zwei Hauptteilen besteht. Der erste Teil, OptiFilter genannt, verwendet ein dynamisches "Queuing Concept", um die zahlreich anfallenden Netzdaten weiter zu verarbeiten, baut fortlaufend Netzverbindungen auf, und exportiert strukturierte Input-Daten für das IDS. Den zweiten Teil stellt ein adaptiver Klassifikator dar, der ein Klassifikator-Modell basierend auf "Enhanced Growing Hierarchical Self Organizing Map" (EGHSOM), ein Modell für Netzwerk Normalzustand (NNB) und ein "Update Model" umfasst. In dem OptiFilter werden Tcpdump und SNMP traps benutzt, um die Netzwerkpakete und Hostereignisse fortlaufend zu aggregieren. Diese aggregierten Netzwerkpackete und Hostereignisse werden weiter analysiert und in Verbindungsvektoren umgewandelt. Zur Verbesserung der Erkennungsrate des adaptiven Klassifikators wird das künstliche neuronale Netz GHSOM intensiv untersucht und wesentlich weiterentwickelt. In dieser Dissertation werden unterschiedliche Ansätze vorgeschlagen und diskutiert. So wird eine classification-confidence margin threshold definiert, um die unbekannten bösartigen Verbindungen aufzudecken, die Stabilität der Wachstumstopologie durch neuartige Ansätze für die Initialisierung der Gewichtvektoren und durch die Stärkung der Winner Neuronen erhöht, und ein selbst-adaptives Verfahren eingeführt, um das Modell ständig aktualisieren zu können. Darüber hinaus besteht die Hauptaufgabe des NNB-Modells in der weiteren Untersuchung der erkannten unbekannten Verbindungen von der EGHSOM und der Überprüfung, ob sie normal sind. Jedoch, ändern sich die Netzverkehrsdaten wegen des Concept drif Phänomens ständig, was in Echtzeit zur Erzeugung nicht stationärer Netzdaten führt. Dieses Phänomen wird von dem Update-Modell besser kontrolliert. Das EGHSOM-Modell kann die neuen Anomalien effektiv erkennen und das NNB-Model passt die Änderungen in Netzdaten optimal an. Bei den experimentellen Untersuchungen hat das Framework erfolgversprechende Ergebnisse gezeigt. Im ersten Experiment wurde das Framework in Offline-Betriebsmodus evaluiert. Der OptiFilter wurde mit offline-, synthetischen- und realistischen Daten ausgewertet. Der adaptive Klassifikator wurde mit dem 10-Fold Cross Validation Verfahren evaluiert, um dessen Genauigkeit abzuschätzen. Im zweiten Experiment wurde das Framework auf einer 1 bis 10 GB Netzwerkstrecke installiert und im Online-Betriebsmodus in Echtzeit ausgewertet. Der OptiFilter hat erfolgreich die gewaltige Menge von Netzdaten in die strukturierten Verbindungsvektoren umgewandelt und der adaptive Klassifikator hat sie präzise klassifiziert. Die Vergleichsstudie zwischen dem entwickelten Framework und anderen bekannten IDS-Ansätzen zeigt, dass der vorgeschlagene IDSFramework alle anderen Ansätze übertrifft. Dies lässt sich auf folgende Kernpunkte zurückführen: Bearbeitung der gesammelten Netzdaten, Erreichung der besten Performanz (wie die Gesamtgenauigkeit), Detektieren unbekannter Verbindungen und Entwicklung des in Echtzeit arbeitenden Erkennungsmodells von Eindringversuchen.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This thesis aims at empowering software customers with a tool to build software tests them selves, based on a gradual refinement of natural language scenarios into executable visual test models. The process is divided in five steps: 1. First, a natural language parser is used to extract a graph of grammatical relations from the textual scenario descriptions. 2. The resulting graph is transformed into an informal story pattern by interpreting structurization rules based on Fujaba Story Diagrams. 3. While the informal story pattern can already be used by humans the diagram still lacks technical details, especially type information. To add them, a recommender based framework uses web sites and other resources to generate formalization rules. 4. As a preparation for the code generation the classes derived for formal story patterns are aligned across all story steps, substituting a class diagram. 5. Finally, a headless version of Fujaba is used to generate an executable JUnit test. The graph transformations used in the browser application are specified in a textual domain specific language and visualized as story pattern. Last but not least, only the heavyweight parsing (step 1) and code generation (step 5) are executed on the server side. All graph transformation steps (2, 3 and 4) are executed in the browser by an interpreter written in JavaScript/GWT. This result paves the way for online collaboration between global teams of software customers, IT business analysts and software developers.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Real-world learning tasks often involve high-dimensional data sets with complex patterns of missing features. In this paper we review the problem of learning from incomplete data from two statistical perspectives---the likelihood-based and the Bayesian. The goal is two-fold: to place current neural network approaches to missing data within a statistical framework, and to describe a set of algorithms, derived from the likelihood-based framework, that handle clustering, classification, and function approximation from incomplete data in a principled and efficient manner. These algorithms are based on mixture modeling and make two distinct appeals to the Expectation-Maximization (EM) principle (Dempster, Laird, and Rubin 1977)---both for the estimation of mixture components and for coping with the missing data.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Linked Open data – a platform for modern science, engineering, education and business. In the more recent talk, Sir Nigel Shadbolt speaks about "The Value of Openess - The Open Data Institute and Publically Funded Open Data" during the Natural History Museum of London Informatics Horizons event.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dadas las relaciones de cooperación internacional que presentan las Repúblicas de Colombia y Costa Rica, que se evidencia en los fuertes vínculos comerciales existentes entre las dos naciones, Proexport por medio de su oficina comercial en Costa Rica, ha mantenido al tanto la situación en la que se desenvuelve la alianza comercial entre Colombia y Costa Rica. Él último de estos informes, demuestra la potencialidad de Costa Rica como un mercado para los bienes colombianos y una posibilidad para los exportadores nacionales que buscan mercados para sus productos o servicios. Este proyecto de investigación surge, con el objetivo de analizar las relaciones bilaterales y contribuir al desarrollo de la economía emergente que presenta el país. Para ello, en primera instancia se realiza un proceso de contextualización desde aspectos demográficos hasta históricos. En seguida y a manera descriptiva, se expone los diversos bienes y servicios que se intercambian entre las dos naciones con el fin de identificar oportunidades que se podrían ofrecer y afectar una vez se firme el tratado. Finalmente, se evalúa y analiza cada uno de los sectores emergentes de Colombia con el objeto de motivar la inversión en el país para generar de tal manera, un incremento en la producción, logrando abrir las puertas de la economía colombiana a un socio estratégico como lo es Costa Rica y contribuir poco a poco al desarrollo del comercio sustentable entre las dos naciones.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente trabajo de investigación se basa en la descripción y análisis de las diferentes rutas existentes para la internacionalización de empresas. Así mismo, se conocerá a mayor profundidad el concepto de internacionalización, sus ventajas e implicaciones y diferentes modelos que aplican a este concepto. De igual forma, este estudio muestra las diferencias estratégicas que pueden existir entre los sectores, teniendo en cuenta que Formesan S.A.S. pertenece al sector de la construcción y SQL Software S.A., al sector del software y tecnologías de la información y comunicaciones. A partir de la comparación y análisis del proceso de internacionalización de estas empresas, se puede evidenciar que no existe una ruta específica por la cual toman la decisión de internacionalizarse, sino que en muchos casos, éstas deciden realizarlo desde la búsqueda de oportunidades y la motivación que tengan los empresarios para que esto suceda. Si bien, la internacionalización no es un proceso que está ligado a un modelo teórico sino más bien está asociado a una experiencia dada por las condiciones y decisiones que el empresario decide tomar al querer hacer de su empresa una compañía global.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Se propone integrar los esfuerzos provenientes de las ciencias sociales para el desarrollo de las herramientas de gestión a través de las ciencias computacionales. Se busca desarrollar propuestas metodológicas que permitan el mejoramiento de un modelo computacional que haga posible el simular el desempeño de una marca dada, asociada a una empresa, frente a sus consumidores. Se procura que con esta monografía se establezcan formas que permitan una óptima recolección de información, insumo clave dentro de un modelo de simulación de inteligencia artificial que se aplicará al comportamiento de grupos poblacionales buscando comprender la respuestas que presentan los sujetos frente a la marca organizacional a partir del principio percepción-razonamiento-acción.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente caso de estudio y consultoría, basa su desarrollo en situaciones actuales de PLACECOL S.A, en áreas de potencial exportador, inteligencia de mercados , mejoramiento de producto, logística internacional y estrategia comercial, a partir de las cuales hace propuestas de mejoramiento que promueven el desarrollo de comercio exterior en el rubro de higiene oral.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this session we'll explore how Microsoft uses data science and machine learning across it's entire business, from Windows and Office, to Skype and XBox. We'll look at how companies across the world use Microsoft technology for empowering their businesses in many different industries. And we'll look at data science technologies you can use yourselves, such as Azure Machine Learning and Power BI. Finally we'll discuss job opportunities for data scientists and tips on how you can be successful!

Relevância:

30.00% 30.00%

Publicador:

Resumo:

An emerging consensus in cognitive science views the biological brain as a hierarchically-organized predictive processing system. This is a system in which higher-order regions are continuously attempting to predict the activity of lower-order regions at a variety of (increasingly abstract) spatial and temporal scales. The brain is thus revealed as a hierarchical prediction machine that is constantly engaged in the effort to predict the flow of information originating from the sensory surfaces. Such a view seems to afford a great deal of explanatory leverage when it comes to a broad swathe of seemingly disparate psychological phenomena (e.g., learning, memory, perception, action, emotion, planning, reason, imagination, and conscious experience). In the most positive case, the predictive processing story seems to provide our first glimpse at what a unified (computationally-tractable and neurobiological plausible) account of human psychology might look like. This obviously marks out one reason why such models should be the focus of current empirical and theoretical attention. Another reason, however, is rooted in the potential of such models to advance the current state-of-the-art in machine intelligence and machine learning. Interestingly, the vision of the brain as a hierarchical prediction machine is one that establishes contact with work that goes under the heading of 'deep learning'. Deep learning systems thus often attempt to make use of predictive processing schemes and (increasingly abstract) generative models as a means of supporting the analysis of large data sets. But are such computational systems sufficient (by themselves) to provide a route to general human-level analytic capabilities? I will argue that they are not and that closer attention to a broader range of forces and factors (many of which are not confined to the neural realm) may be required to understand what it is that gives human cognition its distinctive (and largely unique) flavour. The vision that emerges is one of 'homomimetic deep learning systems', systems that situate a hierarchically-organized predictive processing core within a larger nexus of developmental, behavioural, symbolic, technological and social influences. Relative to that vision, I suggest that we should see the Web as a form of 'cognitive ecology', one that is as much involved with the transformation of machine intelligence as it is with the progressive reshaping of our own cognitive capabilities.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tesis pretende describir la situación actual del sector de seguridad privada, al implementar y adoptar estrategias de CRM. Con una revisión confiable y el estudio de casos relacionados con el tema, lo cual permitirá constatar la realidad en cuanto la aplicación del modelo, en el sector de seguridad privada, según lo planteado por diversos autores. Los resultados obtenidos permitirán, de este modo, al sector y a sus gerentes, desarrollar estrategias que ayuden a la satisfacción de sus clientes y a la prestación de un mejor servicio. En el campo académico, este estudio servirá como guía teórico-práctica para estudiantes y profesores, de modo que permitirá afianzar conocimientos en cuanto al CRM, al marketing relacional y su uso en el sector de seguridad privada. Según este modelo la información acerca de los clientes, es una información estratégica vital para las organizaciones que ayuda a la toma de decisiones, pronosticar cambios en cuanto a demanda, además de establecer control sobre procesos en los que se involucre el cliente; de modo que la adopción e implementación de CRM, ayude a la empresa, en este caso a las del sector de seguridad privada, a estar atentos a la manera como se interactúa con el cliente y por ende mejorar el servicio, lo que tendrá repercusión en la percepción que tenga de la organización el cliente. De este modo, se ve como en la actualidad las estrategias de CRM definen el rumbo de una empresa, ayudando atraer nuevos clientes y además de esto, ayuda de igual modo a mantener felices a los clientes actuales; lo cual repercute en la demanda o el requerimiento del servicio, y así en una mejor rentabilidad para las empresas del sector. Razones por las que el sector de vigilancia se verá beneficiado por medio de las estrategias del CRM, lo que lo llevara a ofrecer mejores servicios a sus clientes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Mediante este proyecto, se hace un análisis de la industria automotriz en Colombia, cómo se puede ver afectada y cuáles serán los pros y contras ante la puesta en ejecución del Tratado de Libre Comercio con la República de Corea, tomando como base diferentes agentes que incursionan directamente en la industria mencionada, como lo son sus consumidores, los comerciantes, productores (ensambladoras) y el gobierno nacional. Igualmente, la globalización como aspecto fundamental para las economías mundiales, genera la apertura de estas y afianza a su vez la firma de diferentes tratados que permitan mejorar el comercio y bajar los precios de bienes y servicios entre países; pero en este caso dicha apertura, puede no ser beneficiosa para la industria automotriz colombiana debido a las grandes diferencias en capacidad de producción y tecnología entre ambos países. Por lo anterior, se realizan comparaciones entre las dos economías y sus industrias (la automotriz), para encontrar los puntos en los cuales Colombia es más débil y buscar estrategias que permitan contrarrestar los efectos negativos que puede traer consigo el Tratado de Libre Comercio, así mismo, buscar oportunidades para mejorar el desarrollo tecnológico y de esta manera incentivar la inversión para consolidar dicha industria en el mercado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

“Los modelos de negocio describen las bases sobre las cuales una empresa, crea, proporciona y capta valor”. Osterwalder, Alexander. (2010). Kids Club es una empresa manufacturera de calzado para niños catalogada por PROEXPORT como una de las mejores empresas Colombianas dentro del sector; y una de las pocas empresas que en menos de 10 años logro exportar sus productos a mercados internacionales a partir de técnicas administrativas empíricas. A través del siguiente estudio de caso, se pretende describir el modelo de negocio de la empresa; identificando sus segmentos de mercado, estructura de cadena de valor y mecanismos de generación de ventas con el objetivo de identificar sus factores críticos de éxito y proponer nuevas alternativas para que se mantenga como líder del sector, en el entorno empresarial actual.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta disertación busca estudiar los mecanismos de transmisión que vinculan el comportamiento de agentes y firmas con las asimetrías presentes en los ciclos económicos. Para lograr esto, se construyeron tres modelos DSGE. El en primer capítulo, el supuesto de función cuadrática simétrica de ajuste de la inversión fue removido, y el modelo canónico RBC fue reformulado suponiendo que des-invertir es más costoso que invertir una unidad de capital físico. En el segundo capítulo, la contribución más importante de esta disertación es presentada: la construcción de una función de utilidad general que anida aversión a la pérdida, aversión al riesgo y formación de hábitos, por medio de una función de transición suave. La razón para hacerlo así es el hecho de que los individuos son aversos a la pérdidad en recesiones, y son aversos al riesgo en auges. En el tercer capítulo, las asimetrías en los ciclos económicos son analizadas junto con ajuste asimétrico en precios y salarios en un contexto neokeynesiano, con el fin de encontrar una explicación teórica de la bien documentada asimetría presente en la Curva de Phillips.