35 resultados para Sistemas expertos (Informática)

em Universidade Complutense de Madrid


Relevância:

90.00% 90.00%

Publicador:

Resumo:

En el presente trabajo fin de máster se pretende plantear una metodología que permita realizar un análisis de riesgo de inundación por avenidas torrenciales en una zona concreta de la Isla de Mallorca (Islas Baleares), el Pla de Sant Jordi, en el cual se vienen dando problemas de inundación de forma reiterada desde los años 70. Se propone afrontar el problema desde el método de análisis hidrológico-hidráulico con el fin de obtener una cartografía de la zona de estudio donde aparezcan indicadas las áreas susceptibles o peligrosas a ser inundadas. Todo esto se llevará a cabo empleando las herramientas que nos ofrecen las TIG, aprovechando el potencial que tienen estas en la correlación espacial de los elementos del territorio. Sus aplicaciones en el campo de los riesgos naturales son indispensables para obtener unos resultados óptimos, y poder basar en ellos, la toma de decisiones fundamentales por parte de los organismos públicos o privados para proteger a la población de cara a los desastres naturales.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La gran evolución a lo largo de este tiempo sobre dispositivos móviles y sus características, así como las vías de conexión de alta velocidad 3G/4G, han logrado dar un giro a los planteamientos económicos empresariales consiguiendo que se replanteen los costes de sus infraestructuras tradicionales, involucrando las nuevas tecnologías en su nueva estructura económica y consiguiendo invertir menos recursos humanos en el proceso de producción. Este proyecto propone una solución real para la empresa Madrileña Red de Gas. Mientras el proyecto de contadores inteligentes se termina de concretar y desarrollar, es necesario disponer de un método que automatice la lectura de los contadores analógicos mediante el procesamiento de una imagen digital a través de una aplicación informática que sea capaz de determinar el código de identificación del contador así como la lectura del consumo actual. Para la elaboración del método desarrollado se han utilizado conceptos propios de Visión por Computador y de Aprendizaje Automático, más específicamente tratamiento de imágenes y reconocimiento óptico de caracteres, mediante la aplicación de métodos en el ámbito de dichas disciplinas.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En este Trabajo de Fin de Máster se desarrollará un sistema de detección de fraude en pagos con tarjeta de crédito en tiempo real utilizando tecnologías de procesamiento distribuido. Concretamente se considerarán dos tecnologías: TIBCO, un conjunto de herramientas comerciales diseñadas para el procesamiento de eventos complejos, y Apache Spark, un sistema abierto para el procesamiento de datos en tiempo real. Además de implementar el sistema utilizando las dos tecnologías propuestas, un objetivo, otro objetivo de este Trabajo de Fin de Máster consiste en analizar y comparar estos dos sistemas implementados usados para procesamiento en tiempo real. Para la detección de fraude en pagos con tarjeta de crédito se aplicarán técnicas de aprendizaje máquina, concretamente del campo de anomaly/outlier detection. Como fuentes de datos que alimenten los sistemas, haremos uso de tecnologías de colas de mensajes como TIBCO EMS y Kafka. Los datos generados son enviados a estas colas para que los respectivos sistemas puedan procesarlos y aplicar el algoritmo de aprendizaje máquina, determinando si una nueva instancia es fraude o no. Ambos sistemas hacen uso de una base de datos MongoDB para almacenar los datos generados de forma pseudoaleatoria por los generadores de mensajes, correspondientes a movimientos de tarjetas de crédito. Estos movimientos posteriormente serán usados como conjunto de entrenamiento para el algoritmo de aprendizaje máquina.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En este proyecto se ha creado una aplicación web destinada a la valoración de la calidad de la docencia de asignaturas virtuales. Para ello se utiliza un modelo de evaluación que mide diferentes aspectos o factores que intervienen en la calidad. Este modelo se ha implementado en forma de un conjunto de cuestionarios que pueden ser utilizados tanto por profesores como por evaluadores. El profesor puede utilizarlo para obtener una autoevaluación de la calidad de la asignatura que ha impartido, y el evaluador lo usará en el contexto de comisiones de evaluación de la calidad de la docencia que se crean en las universidades y otras instituciones. La evaluación se realiza de forma manual por el usuario, profesor o evaluador. Sin embargo existe un conjunto de factores de evaluación que son calculados de forma automática por el sistema tomando como entrada datos acerca de la asignatura virtual. El objetivo de esta aplicación no es sólo facilitar al usuario el formulario y obtener la puntación, sino que también se obtenga de forma automática la puntuación de algunas preguntas y así poder completarlo de forma más cómoda y rápida. Los resultados que muestra la aplicación son generados de forma dinámica, así el usuario podrá tener una mejor visión sobre la evaluación.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En el mundo de la simulación existen varios tipos de sistemas reales, entre los que se encuentran los sistemas de eventos discretos. Para poder simular estos sistemas se pueden utilizar, entre otras, herramientas basadas en el formalismo DEVS (Discrete EVents system Specification), como la utilizada en este proyecto: xDEVS. La simulación posee una importancia muy elevada en campos como la educación y la ciencia, y en ocasiones es necesario incluir datos del medio físico o sacar información al exterior del simulador. Por ello es necesario contar con herramientas que puedan realizar simulaciones utilizando sensores, actuadores, circuitos externos, etc., o lo que es lo mismo, que puedan realizar co-simulaciones entre software y hardware. De esta forma se puede facilitar el desarrollo de sistemas por medio de modelado y simulación, pudiendo extraer el hardware gradualmente y analizar los resultados en cada etapa. Este proyecto es de carácter incremental, y trata de extender la funcionalidad de la plataforma xDEVS para poder realizar co-simulaciones entre hardware y software sobre una Raspberry Pi. Para ello se van a utilizar circuitos lógicos como hardware externo y se enlazarán al simulador a través de ficheros de dispositivo, gestionados por módulos del kernel de Linux. Como caso de estudio se desarrolla la co-simulación entre hardware y software completa de un ascensor de siete plantas para mostrar el uso y funcionamiento en xDEVS, extrayendo los circuitos integrados de uno en uno.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este trabajo tiene como meta el desarrollo de un sistema de neurorrehabilitación mediante realidad virtual para pacientes con problemas motores en las extremidades superiores provocados por un daño cerebral. Para entender y enfrentarse de manera correcta al problema, se han revisado todos los aspectos concernientes al daño cerebral y déficits motores derivados así como las terapias empleadas para su rehabilitación, como las que utilizan tecnologías asistidas como la realidad virtual. Se han expuesto las ventajas que han llevado a utilizar esta terapia en el proyecto y se han mencionado algunos estudios de investigación previos y con resultados favorables. Por último, se ha hecho hincapié en las novedades (embodiment y neuronas espejo) que aporta este proyecto con las que se podría acelerar la rehabilitación de los pacientes incidiendo en la plasticidad cerebral. En lo que se refiere al desarrollo del entorno, se ha utilizado el motor de videojuegos Unity 3D, con el que se ha integrado el dispositivo Myo Armband, para capturar el movimiento, y las gafas de realidad virtual Oculus Rift DK2. Durante la terapia, el paciente tiene que superar una serie de niveles definidos por el terapeuta y, para ello, debe realizar un alcance y tocar un botón un número de veces por cada nivel. En cada nivel, el esfuerzo que tiene que realizar el paciente es distinto, dependiendo de la distancia a la que se encuentre el botón (relativa al calibrado previo del paciente) e igualmente, está definido por el terapeuta. También se lleva a cabo un registro de las aceleraciones y del porcentaje de acierto del paciente en un fichero, para llevar un control de su progreso. Como conclusión, cabe mencionar que el entorno desarrollado es adaptable a las posibilidades de cada paciente, permitiendo una recuperación óptima. Se trata de un sistema de bajo coste, intuitivo y que lleva a cabo un registro de datos de la actividad del paciente, lo que posibilita, como trabajo futuro, el control de forma remota por parte del terapeuta. Todos estos aspectos dejan abierta la posibilidad de que el paciente lo utilice a domicilio, con las ventajas que conlleva. Del mismo modo, el sistema se podría adaptar fácilmente para la rehabilitación de las extremidades inferiores. Tras su análisis, los investigadores expertos en la materia del Consejo Superior de Investigaciones Científicas afirman que el sistema satisface con creces su propósito. Con todo esto, se concluye que este entorno tiene un excelente presente y un futuro muy prometedor.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El movimiento de datos abiertos es relativamente nuevo, ofrece beneficios significativos a la sociedad y a la economía, promueve la democracia y la responsabilidad de los gobiernos públicos fomentando la transparencia, participación y colaboración de los ciudadanos. Por ser un movimiento relativamente nuevo, son los países que lideran el desarrollo quienes ya han implementado políticas de datos abiertos y ya disfrutan de sus beneficios; sin embargo, hay países en los que aún ni siquiera hay iniciativas de datos abiertos o aún están comenzando. En este trabajo se estudia el uso adecuado de buenas prácticas, normas, métricas y estándares para la implantación de datos abiertos de manera sostenible, automatizable y en formatos accesibles que garanticen la reutilización de los datos con el fin de generar valor a través de ellos, al crear nuevos productos y servicios que contribuyan a mejorar la calidad de vida de los ciudadanos. En ese sentido, se realiza un análisis exploratorio de los principios de datos abiertos, se realiza un análisis sobre la situación actual de iniciativas de datos abiertos, y con el fin de que el proyecto sea de máxima aplicabilidad, se realizan pruebas de la métrica Meloda 4.0 sobre conjuntos de datos del Ayuntamiento de Madrid. Se realiza un análisis y evaluación de los portales de datos abiertos de los Ayuntamientos de Madrid, Zaragoza y Barcelona basándose en la Norma UNE 178301:2015. En concordancia con la filosofía de datos abiertos, se estudia y sugiere el uso de tecnologías de código abierto para la publicación de datos abiertos. Finalmente, como resultado y aplicabilidad de todo lo aprendido, se propone el diseño de una metodología para publicación de datos abiertos orientada a entidades públicas que aún no tienen iniciativas o están comenzando a implementar políticas de datos abiertos.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En el año 2016 se vendieron en EE.UU más de un millón de Unmanned Aerial Vehicles (UAVs, Vehículos aéreos no tripulados), casi el doble que el año anterior, país del que se dispone de información. Para el año 2020 se estima que este mercado alcance los 5.600 millones de dólares en todo el mundo, creciendo a un ritmo del 30% anual. Este crecimiento demuestra que existe un mercado en expansión con muchas y diversas oportunidades de investigación. El rango de aplicaciones en los que se utiliza este tipo de vehículos es innumerable. Desde finales del s.XX, los UAVs han estado presentes en multitud de aplicaciones, principalmente en misiones de reconocimiento. Su principal ventaja radica en que pueden ser utilizados en situaciones de alto riesgo sin suponer una amenaza para ningún tripulante. En los últimos años, la fabricación de vehículos asequibles económicamente ha permitido que su uso se extienda a otros sectores. A día de hoy uno de los campos en los que ha adquirido gran relevancia es en agricultura, contribuyendo a la automatización y monitorización de cultivos, pero también se ha extendido su uso a diferentes sistemas, tales como seguridad, cartografía o monitorización, entre otros [1]. Es en esta situación en la que se propone el proyecto SALACOM [2], que explora la posibilidad de utilizar esta tecnología en sistemas de repuesta rápida para la detección y contención de vertidos contaminantes en entornos acuáticos con el apoyo de vehículos autónomos marinos de superficie (USV, Unmanned Surface Vehicles). En el mencionado proyecto se pretende utilizar sistemas UAVs para detectar y analizar las zonas de vertido y proveer la información respecto a la localización y las técnicas de contención adecuadas a los sistemas USV. Una vez se haya realizado el análisis de la situación del vertido, los USV trabajarían conjuntamente con los UAVs para desplegar las barreras de protección seleccionadas en la zona afectada. Para esto, los UAVs o drones, términos similares en lo que respecta a este proyecto y que a lo largo de esta memoria se usarán indistintamente, deben ser capaces de despegar desde los USV y volver a aterrizar sobre ellos una vez realizada su labor. El proyecto que se describe en la presente memoria se centra en la fase de aterrizaje y, más concretamente, en la detección de la plataforma seleccionada como plantilla mediante técnicas de tratamiento de imágenes. Esto serviría como sistema de apoyo para guiar el dron hacia la plataforma para que pueda realizar el descenso correctamente y finalizar así su misión o bien para realizar operaciones de recarga de la batería. El dron está equipado con la correspondiente cámara de visión a bordo, con la que obtiene las imágenes, las procesa e identifica la plataforma para dirigirse hacia ella, si bien, dado que el sistema de procesamiento de imágenes no se encuentra totalmente operativo, este trabajo se centra en el desarrollo de una aplicación software independiente del sistema de visión a bordo del dron, basada en el desarrollo de técnicas de reconocimiento de la plataforma. La plataforma a utilizar proviene de una patente [3], consistente en una figura geométrica con formas características, de muy difícil aparición en entornos de exterior. La figura pintada en negro se halla impresa sobre un panel de fondo blanco de 1m × 1m de superficie. En este trabajo se han explorado diversas opciones disponibles para realizar la identificación de las regiones de interés. El principal objetivo es realizar la selección de una tecnología que pueda cumplir potencialmente con los criterios necesarios para llevar a cabo la tarea y seleccionar los métodos de detección adecuados para realizar la identificación de la figura contenida en la plataforma. Se ha pretendido utilizar tecnologías de fácil uso, amplío soporte y, cuando ha sido posible, de código libre. Todo ello integrado en una aplicación informática, que es la que se presenta en el presente trabajo.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Las tecnologías relacionadas con el análisis de datos masivos están empezando a revolucionar nuestra forma de vivir, nos demos cuenta de ello o no. Desde las grandes compañías, que utilizan big data para la mejora de sus resultados, hasta nuestros teléfonos, que lo usan para medir nuestra actividad física. La medicina no es ajena a esta tecnología, que puede utilizarla para mejorar los diagnósticos y establecer planes de seguimiento personalizados a los pacientes. En particular, el trastorno bipolar requiere de atención constante por parte de los profesionales médicos. Con el objetivo de contribuir a esta labor, se presenta una plataforma, denominada bip4cast, que pretende predecir con antelación las crisis de estos enfermos. Uno de sus componentes es una aplicación web creada para realizar el seguimiento a los pacientes y representar gráficamente los datos de que se dispone con el objetivo de que el médico sea capaz de evaluar el estado del paciente, analizando el riesgo de recaída. Además, se estudian las diferentes visualizaciones implementadas en la aplicación con el objetivo de comprobar si se adaptan correctamente a los objetivos que se pretenden alcanzar con ellas. Para ello, generaremos datos aleatorios y representaremos estos gráficamente, examinando las posibles conclusiones que de ellos pudieran extraerse.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Predecir la función biológica de secuencias de Ácido Desoxirribonucleico (ADN) es unos de los mayores desafíos a los que se enfrenta la Bioinformática. Esta tarea se denomina anotación funcional y es un proceso complejo, laborioso y que requiere mucho tiempo. Dado su impacto en investigaciones y anotaciones futuras, la anotación debe ser lo más able y precisa posible. Idealmente, las secuencias deberían ser estudiadas y anotadas manualmente por un experto, garantizando así resultados precisos y de calidad. Sin embargo, la anotación manual solo es factible para pequeños conjuntos de datos o genomas de referencia. Con la llegada de las nuevas tecnologías de secuenciación, el volumen de datos ha crecido signi cativamente, haciendo aún más crítica la necesidad de implementaciones automáticas del proceso. Por su parte, la anotación automática es capaz de manejar grandes cantidades de datos y producir un análisis consistente. Otra ventaja de esta aproximación es su rapidez y bajo coste en relación a la manual. Sin embargo, sus resultados son menos precisos que los manuales y, en general, deben ser revisados ( curados ) por un experto. Aunque los procesos colaborativos de la anotación en comunidad pueden ser utilizados para reducir este cuello de botella, los esfuerzos en esta línea no han tenido hasta ahora el éxito esperado. Además, el problema de la anotación, como muchos otros en el dominio de la Bioinformática, abarca información heterogénea, distribuida y en constante evolución. Una posible aproximación para superar estos problemas consiste en cambiar el foco del proceso de los expertos individuales a su comunidad, y diseñar las herramientas de manera que faciliten la gestión del conocimiento y los recursos. Este trabajo adopta esta línea y propone MASSA (Multi-Agent System to Support functional Annotation), una arquitectura de Sistema Multi-Agente (SMA) para Soportar la Anotación funcional...

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Nuestro trabajo se ha centrado principalmente en la mejora y extensión de una aplicación web llamada VizHaskell, la cual fue creada en otro proyecto anterior. La finalidad de esta herramienta es ser utilizada en el ámbito educativo para el aprendizaje del lenguaje Haskell y, por ello, incluye diferentes mecanismos para facilitar la programación de este lenguaje, a diferencia de otras que están destinados a un uso más serio o profesional. Entre sus características están la de incluir un mecanismo de gestión de usuarios en el que cada usuario dispondrá de su propio espacio de trabajo, permitir la creación de proyectos con la que los usuarios pueden tener de una manera organizada los módulos que vayan realizando, incluso proporcionar una visión original a la hora de obtener los resultados de su trabajo y poder entenderlos mejor, mediante el uso de representaciones gráficas como tablas o escenas 3D totalmente manejables y manipulables. Todo esto es posible sin la necesidad de instalar nada más allá de un navegador compatible con HTML5. Entre las mejoras añadidas están la inclusión de dos nuevas representaciones (tablas asociativas y escenas tridimensionales), la capacidad de anidar complejas estructuras de datos y la capacidad de poder manipular las estructuras de una forma sencilla mediante el uso de conocidos elementos como son los menús contextuales, además de otras mejoras que quizás no son tan llamativas, pero no por ello menos importantes, como la incorporación de funcionalidades relacionadas con los backreferences. Todo esto podemos verlo en detalle en la memoria del proyecto.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La industria del videojuego ha avanzado a grandes pasos durante los últimos años respecto a la creación de "inteligencia artificial" para sus personajes, afirmando siempre que la utilizan para dotar de realismo y credibilidad a sus personajes. Sin embargo este concepto ha variado sustancialmente año tras año, y aún hoy, la inteligencia que encontramos en los personajes está lejos de lo que uno podría esperar de ello, incluso lejos de lo ya estudiado y conocido en la correspondiente disciplina académica. En el afán por desarrollar personajes que sean realmente autónomos y tomen sus propias decisiones tras razonar acerca de lo que ocurre en el juego, en este trabajo porponemos un sistema capaz de dotar de control autónomo a los personajes de un videojuego y con potencial para mostrar una mayor inteligencia. Para ello conectamos un armazón de desarrollo de videojuegos llamado IsoUnity, desarrollado sobre el entorno Unity, con un sistema multi-agente llamado Jason e implementado en Java, que utiliza el conocido modelo cognitivo Creencia-Deseo-Intención para representar el estado interno de la mente de los agentes, que en nuestro caso serán personajes de videojuego. A la hora de producir un videojuego, se implementa mediante un sistema de agentes inteligentes, con información subjetiva sobre el mundo, objetivos y planes y tareas que realizar, el jugador tendrá una experiencia más plena. Nuestra visión es la de adoptar este sistema en el desarrollo de videojuegos independientes de perspectiva isométrica y recursos sencillos de estilo retro, de ahí el uso de IsoUnity. En esta memoria, además de explicar en detalle nuestro sistema de control, documentamos las pruebas y las adaptaciones que proponemos para llevar a la práctica este concepto, sentando las bases tecnológicas para producir un videojuego completo utilizando este sistema. Siguiendo el camino iniciado en anteriores Trabajos de Fin de Grado de esta Facultad, queríamos continuar en esa línea de trabajo afinando más el concepto y abordando un tema nuevo, el de dotar a los personajes de videojuegos creados con IsoUnity de una autonomía mayor y mejores herramientas de toma de decisión para poder interactuar con su entorno y con otros personajes.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabajo presenta el desarrollo de una aplicación destinada al análisis de secuencias de imágenes para la detección de movimiento en la escena. Se trata de un campo importante de la Visión Artificial, con múltiples aplicaciones entre las que se encuentra la videovigilancia con fines de seguridad, el control de tráfico, el movimiento de personas o el seguimiento y localización de objetos entre otras muchas. Para ello se utilizan métodos de análisis como son el de Lucas-Kanade y Gauss-Seidel, que obtienen el denominado flujo óptico. Este describe el movimiento que ha tenido lugar entre las imágenes y su fundamento estriba en la determinación de las variables espaciales y temporales en las imágenes, siendo precisamente la variable temporal la que introduce el concepto fundamental para el análisis del movimiento a partir de las imágenes captadas en diferentes instantes de tiempo dentro de la secuencia analizada. Para el desarrollo de la aplicación se han utilizado técnicas propias del tratamiento de la Visión Artificial, así como la metodología proporcionada por la Ingeniería del Software. Así, se ha realizado una especificación de requisitos, se ha elaborado y seguido un plan de proyecto y se ha realizado un análisis de alto nivel, que se materializa en el correspondiente diseño e implementación, junto con las pruebas de verificación y validación, obviamente adaptados en todos los casos a las dimensiones del proyecto, pero que establecen claramente los planteamientos básicos para el desarrollo de una aplicación a nivel empresarial. La aplicación planteada se enmarca perfectamente dentro del paradigma, hoy en día en pleno auge, conocido como el Internet de las Cosas (IoT). El IoT permite la intercomunicación entre dispositivos remotos, de forma que mediante la correspondiente comunicación a través de conexiones a Internet es posible obtener datos remotos para su posterior análisis, bien en nodos locales o en la nube, como concepto íntimamente relacionado con el IoT. Este es el caso de la aplicación que se presenta, de suerte que los métodos de procesamiento de las imágenes pueden aplicarse localmente o bien transmitir las mismas para su procesamiento en nodos remotos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La Realidad Aumentada es una tecnología que permite aumentar el mundo real que percibimos con elementos virtuales interactivos. En esta memoria describimos el uso de esta tecnología, entre otras, para obtener información a tiempo real sobre películas. La aplicación que describimos es capaz de recoger toda la información de una película con solo enfocar su foto de portada con la cámara, pudiendo guardar y/o compartir esta información. Además, explicaremos el sistema de recomendación para grupos de personas, que también es una funcionalidad de nuestra aplicación. Este sistema recoge las valoraciones de todos los usuarios para luego hacer una recomendación grupal. Veremos de una manera detallada cómo ha sido el proceso evolutivo desde la idea inicial hasta llegar a una aplicación real.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El póker en todas sus modalidades, tanto presenciales como online, lleva mucho tiempo siendo uno de los juegos de apuestas y azar más jugados del mundo. Dentro de los diferentes tipos de partidas de póker (Omaha, NLHE, PLHE, etc.) el más jugado es el NLHE, sobre el cual se va a desarrollar estetrabajo de fin de grado; particularmente la versión online de la aplicación PokerStars. Existen herramientas para recoger información de estas partidas (PokerTracker, Holdem Manager), pero de la persona que los maneje depende saber el uso de los datos que nos dan estas herramientas, además de la información de las tablas de rangos de autores como Janda (Janda, 2013), o la clasificación de manos de Sklansky-Chubukov (Muñoz, 2009). Con este trabajo queremos dar un apoyo a las personas que se inicien en el mundo del póker a tomar decisiones acertadas aunque no sean óptimas contra todos los jugadores. Algunos jugadores jugaran peor que la óptima y serán objetivos para ser “explotados” y así aumentar nuestro beneficio. Para saber cuáles son estos jugadores explotables, usaremos los datos que nos proporciona la herramienta PokerTracker 4. A la hora de obtener los datos en el momento de la jugada hemos preparado un reconocedor de imágenes adaptado a PokerStars para recoger los datos que hay en la pantalla en el momento de nuestro turno y así decidir lo que debemos hacer. También se ha implementado un entrenador de jugadas para aprender qué hacer frente a unas jugadas, que utiliza unos datos introducidos por el usuario o generados aleatoriamente, y dentro de las aleatorias se pueden simplificar para jugadores noveles a dos de las situaciones más comunes: Open Raise y 3-bet.