989 resultados para Virtual Machine
Resumo:
In our study we use a kernel based classification technique, Support Vector Machine Regression for predicting the Melting Point of Drug – like compounds in terms of Topological Descriptors, Topological Charge Indices, Connectivity Indices and 2D Auto Correlations. The Machine Learning model was designed, trained and tested using a dataset of 100 compounds and it was found that an SVMReg model with RBF Kernel could predict the Melting Point with a mean absolute error 15.5854 and Root Mean Squared Error 19.7576
Resumo:
Software Defined Radio (SDR) hardware platforms use parallel architectures. Current concepts of developing applications (such as WLAN) for these platforms are complex, because developers describe an application with hardware-specifics that are relevant to parallelism such as mapping and scheduling. To reduce this complexity, we have developed a new programming approach for SDR applications, called Virtual Radio Engine (VRE). VRE defines a language for describing applications, and a tool chain that consists of a compiler kernel and other tools (such as a code generator) to generate executables. The thesis presents this concept, as well as describes the language and the compiler kernel that have been developed by the author. The language is hardware-independent, i.e., developers describe tasks and dependencies between them. The compiler kernel performs automatic parallelization, i.e., it is capable of transforming a hardware-independent program into a hardware-specific program by solving hardware-specifics, in particular mapping, scheduling and synchronizations. Thus, VRE simplifies programming tasks as developers do not solve hardware-specifics manually.
Resumo:
Die zunehmende Vernetzung der Informations- und Kommunikationssysteme führt zu einer weiteren Erhöhung der Komplexität und damit auch zu einer weiteren Zunahme von Sicherheitslücken. Klassische Schutzmechanismen wie Firewall-Systeme und Anti-Malware-Lösungen bieten schon lange keinen Schutz mehr vor Eindringversuchen in IT-Infrastrukturen. Als ein sehr wirkungsvolles Instrument zum Schutz gegenüber Cyber-Attacken haben sich hierbei die Intrusion Detection Systeme (IDS) etabliert. Solche Systeme sammeln und analysieren Informationen von Netzwerkkomponenten und Rechnern, um ungewöhnliches Verhalten und Sicherheitsverletzungen automatisiert festzustellen. Während signatur-basierte Ansätze nur bereits bekannte Angriffsmuster detektieren können, sind anomalie-basierte IDS auch in der Lage, neue bisher unbekannte Angriffe (Zero-Day-Attacks) frühzeitig zu erkennen. Das Kernproblem von Intrusion Detection Systeme besteht jedoch in der optimalen Verarbeitung der gewaltigen Netzdaten und der Entwicklung eines in Echtzeit arbeitenden adaptiven Erkennungsmodells. Um diese Herausforderungen lösen zu können, stellt diese Dissertation ein Framework bereit, das aus zwei Hauptteilen besteht. Der erste Teil, OptiFilter genannt, verwendet ein dynamisches "Queuing Concept", um die zahlreich anfallenden Netzdaten weiter zu verarbeiten, baut fortlaufend Netzverbindungen auf, und exportiert strukturierte Input-Daten für das IDS. Den zweiten Teil stellt ein adaptiver Klassifikator dar, der ein Klassifikator-Modell basierend auf "Enhanced Growing Hierarchical Self Organizing Map" (EGHSOM), ein Modell für Netzwerk Normalzustand (NNB) und ein "Update Model" umfasst. In dem OptiFilter werden Tcpdump und SNMP traps benutzt, um die Netzwerkpakete und Hostereignisse fortlaufend zu aggregieren. Diese aggregierten Netzwerkpackete und Hostereignisse werden weiter analysiert und in Verbindungsvektoren umgewandelt. Zur Verbesserung der Erkennungsrate des adaptiven Klassifikators wird das künstliche neuronale Netz GHSOM intensiv untersucht und wesentlich weiterentwickelt. In dieser Dissertation werden unterschiedliche Ansätze vorgeschlagen und diskutiert. So wird eine classification-confidence margin threshold definiert, um die unbekannten bösartigen Verbindungen aufzudecken, die Stabilität der Wachstumstopologie durch neuartige Ansätze für die Initialisierung der Gewichtvektoren und durch die Stärkung der Winner Neuronen erhöht, und ein selbst-adaptives Verfahren eingeführt, um das Modell ständig aktualisieren zu können. Darüber hinaus besteht die Hauptaufgabe des NNB-Modells in der weiteren Untersuchung der erkannten unbekannten Verbindungen von der EGHSOM und der Überprüfung, ob sie normal sind. Jedoch, ändern sich die Netzverkehrsdaten wegen des Concept drif Phänomens ständig, was in Echtzeit zur Erzeugung nicht stationärer Netzdaten führt. Dieses Phänomen wird von dem Update-Modell besser kontrolliert. Das EGHSOM-Modell kann die neuen Anomalien effektiv erkennen und das NNB-Model passt die Änderungen in Netzdaten optimal an. Bei den experimentellen Untersuchungen hat das Framework erfolgversprechende Ergebnisse gezeigt. Im ersten Experiment wurde das Framework in Offline-Betriebsmodus evaluiert. Der OptiFilter wurde mit offline-, synthetischen- und realistischen Daten ausgewertet. Der adaptive Klassifikator wurde mit dem 10-Fold Cross Validation Verfahren evaluiert, um dessen Genauigkeit abzuschätzen. Im zweiten Experiment wurde das Framework auf einer 1 bis 10 GB Netzwerkstrecke installiert und im Online-Betriebsmodus in Echtzeit ausgewertet. Der OptiFilter hat erfolgreich die gewaltige Menge von Netzdaten in die strukturierten Verbindungsvektoren umgewandelt und der adaptive Klassifikator hat sie präzise klassifiziert. Die Vergleichsstudie zwischen dem entwickelten Framework und anderen bekannten IDS-Ansätzen zeigt, dass der vorgeschlagene IDSFramework alle anderen Ansätze übertrifft. Dies lässt sich auf folgende Kernpunkte zurückführen: Bearbeitung der gesammelten Netzdaten, Erreichung der besten Performanz (wie die Gesamtgenauigkeit), Detektieren unbekannter Verbindungen und Entwicklung des in Echtzeit arbeitenden Erkennungsmodells von Eindringversuchen.
Resumo:
Monográfico con el título: 'Leer para aprender'. Resumen basado en el de la publicación
Resumo:
Se aborda el uso de internet como herramienta en el proceso enseñanza aprendizaje en la asignatura de matemáticas en el centro de Enseñanza Secundaria Carlinda de Málaga. Los objetivos son: 1. Identificar las posibilidades reales de acceso de nuestros alumnos a las nuevas tecnologías incluyendo tanto la infraestructura de que disponen como su formación; 2. Estudio en profundidad de los recursos existentes actualmente en internet aplicables a la docencia en las asignaturas de matemáticas en niveles educativos no universitarios; 3. Crear un portal web que sirva de punto de encuentro de los alumnos en el aula virtual de matemáticas complemento de la tradicional clase presencial de matemáticas; 4. Iniciar al alumnado en el uso de las herramientas de comunicación vía internet como instrumento para el aprendizaje de las matemáticas de forma cooperativa; 5. Elaboración de materiales didácticos que permitan a los alumnos realizar prácticas con el ordenador. Uso de los programas de cálculo simbólico que permitan manipular los objetos matemáticos como medio para descubrir el conocimiento; 6. Utilización de los materiales didácticos para la integración de alumnos y alumnas con minusvalía; 7. Elaboración de tutoriales que incluyen test de autoevaluación para propiciar una ecuación autodidacta que permita llevar a cabo el proceso de enseñanza aprendizaje a distintos ritmos; 8. Propiciar la labor investigadora del alumnado, incluyendo en la web enlaces de interés que cautiven la curiosidad del alumno; 9. Propiciar un encuentro con la matemática aplicada, que destaque su carácter interdisciplinar. El proceso consta de tres fases: en la primera se realizó una encuesta al alumnado sobre las posibilidades reales de acceso a internet, su formación y su uso. Paralelamente se ha rastreado en internet para buscar otras experiencias parecidas que incluyesen la creación de páginas webs de contenidos matemáticos de nivel medio; en la segunda fase se han creado algunos materiales de trabajo para la inclusión en las webs. Básicamente hay dos tipos de actividades: guías para la utilización de programas de ordenador de cálculo simbólico y test de autoevaluación de modo de tutorial; la tercera fase ha consistido en el diseño y la creación de la web que integra las actividades realizadas en las fases anteriores con una serie de herramientas de comunicación. Los resultados concretos obtenidos han sido las actividades realizadas en el marco del proyecto: 1. Realización de una encuesta sobre las posibilidades reales de acceso a internet, su formación y su uso; 2. Relación de referencias de otras experiencias parecidas que incluyesen la creación de páginas webs de contenidos matemáticos de nivel medio; 3. Creación de materiales de trabajo para la inclusión en la webs: guías para la utilización de programas de ordenador de cálculo simbólico y test de autoevaluación a modo de tutorial; 4. Creación de la web que integra los materiales de trabajo junto a una serie de utilidades y herramientas de comunicación.
Resumo:
Uso de recursos telemáticos en la Formación de Personas Adultas.
Asistencia virtual para alumnado que por razones de enfermedad no puede asistir al centro educativo.
Resumo:
Garantizar la continuidad del proceso educativo del alumnado de enseñanza obligatoria que por razones de enfermedad no puede asistir físicamente al centro educativo ordinario. Incluir a este alumnado virtualmente en el aula con sus compañeros minimizando el aislamiento y consecuencias que son propias de esta situación.
Resumo:
Este proyecto pretende proporcionar los conocimientos y práctica necesarios para utilizar las TICs como recurso educativo y medio de comunicación, tanto por el profesorado como por el alumnado. Asimismo pretende desarrollar las competencias textuales necesarias para evitar la manipulación sutil que a través de la diversidad de códigos y textos que ofrecen estas tecnologías suele producirse, sobre todo en la infancia y la adolescencia. Por otro lado pretende implicar a madres y padres realizando una formación específica para ellos y solicitando su colaboración en las actividades previstas, como el portal virtual.
Resumo:
Mejorar la producción escrita de los alumnos de ESO y Bachillerato a través de un cambio en la metodología, creando materiales que incorporen las TIC como instrumento didáctico.
Resumo:
Contiene información sobre artistas, sobre museos, enlaces web, recomendaciones bibliográficas, aplicaciones didácticas y detalles técnicos.
Resumo:
Machine translation has been a particularly difficult problem in the area of Natural Language Processing for over two decades. Early approaches to translation failed since interaction effects of complex phenomena in part made translation appear to be unmanageable. Later approaches to the problem have succeeded (although only bilingually), but are based on many language-specific rules of a context-free nature. This report presents an alternative approach to natural language translation that relies on principle-based descriptions of grammar rather than rule-oriented descriptions. The model that has been constructed is based on abstract principles as developed by Chomsky (1981) and several other researchers working within the "Government and Binding" (GB) framework. Thus, the grammar is viewed as a modular system of principles rather than a large set of ad hoc language-specific rules.
Resumo:
The dataflow model of computation exposes and exploits parallelism in programs without requiring programmer annotation; however, instruction- level dataflow is too fine-grained to be efficient on general-purpose processors. A popular solution is to develop a "hybrid'' model of computation where regions of dataflow graphs are combined into sequential blocks of code. I have implemented such a system to allow the J-Machine to run Id programs, leaving exposed a high amount of parallelism --- such as among loop iterations. I describe this system and provide an analysis of its strengths and weaknesses and those of the J-Machine, along with ideas for improvement.
Resumo:
The transformation from high level task specification to low level motion control is a fundamental issue in sensorimotor control in animals and robots. This thesis develops a control scheme called virtual model control which addresses this issue. Virtual model control is a motion control language which uses simulations of imagined mechanical components to create forces, which are applied through joint torques, thereby creating the illusion that the components are connected to the robot. Due to the intuitive nature of this technique, designing a virtual model controller requires the same skills as designing the mechanism itself. A high level control system can be cascaded with the low level virtual model controller to modulate the parameters of the virtual mechanisms. Discrete commands from the high level controller would then result in fluid motion. An extension of Gardner's Partitioned Actuator Set Control method is developed. This method allows for the specification of constraints on the generalized forces which each serial path of a parallel mechanism can apply. Virtual model control has been applied to a bipedal walking robot. A simple algorithm utilizing a simple set of virtual components has successfully compelled the robot to walk eight consecutive steps.