926 resultados para Algoritmo de Prim


Relevância:

10.00% 10.00%

Publicador:

Resumo:

[EU]Master bukaerako proiektu honetan, SNOMED CT sare semantikoa euskaratzeko aplikazioaren lehenengo urratsak azaltzen ditugu. Horretarako, SNOMED CTren sakoneko analisia egin dugu, eta bio-zientzien domeinuko euskarazko baliabideak aztertu ditugu. Aplikazioaren diseinu osoa egin dugu, euskarazko ordainak lortzeko algoritmo bat definituz. Algoritmo horren lehenengo urratsa izan da inplementatu duguna, hiztegi espezializatuen parekatzeari dagokiona, alegia. Aplikazioaren hastapen hauetan emaitza itxaropentsuak lortu ditugu.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ENGLISH: We analyzed catches per unit of effort (CPUE) from the Japanese longline fishery for bigeye tuna (Thunnus obesus) in the central and eastern Pacific Ocean (EPO) with regression tree methods. Regression trees have not previously been used to estimate time series of abundance indices fronl CPUE data. The "optimally sized" tree had 139 parameters; year, month, latitude, and longitude interacted to affect bigeye CPUE. The trend in tree-based abundance indices for the EPO was similar to trends estimated from a generalized linear model and fronl an empirical model that combines oceanographic data with information on the distribution of fish relative to environmental conditions. The regression tree was more parsimonious and would be easier to implement than the other two nl0dels, but the tree provided no information about the nlechanisms that caused bigeye CPUEs to vary in time and space. Bigeye CPUEs increased sharply during the mid-1980's and were more variable at the northern and southern edges of the fishing grounds. Both of these results can be explained by changes in actual abundance and changes in catchability. Results from a regression tree that was fitted to a subset of the data indicated that, in the EPO, bigeye are about equally catchable with regular and deep longlines. This is not consistent with observations that bigeye are more abundant at depth and indicates that classification by gear type (regular or deep longline) may not provide a good measure of capture depth. Asimulated annealing algorithm was used to summarize the tree-based results by partitioning the fishing grounds into regions where trends in bigeye CPUE were similar. Simulated annealing can be useful for designing spatial strata in future sampling programs. SPANISH: Analizamos la captura por unidad de esfuerzo (CPUE) de la pesquería palangrera japonesa de atún patudo (Thunnus obesus) en el Océano Pacifico oriental (OPO) y central con métodos de árbol de regresión. Hasta ahora no se han usado árboles de regresión para estimar series de tiempo de índices de abundancia a partir de datos de CPUE. EI árbol de "tamaño optimo" tuvo 139 parámetros; ano, mes, latitud, y longitud interactuaron para afectar la CPUE de patudo. La tendencia en los índices de abundancia basados en árboles para el OPO fue similar a las tendencias estimadas con un modelo lineal generalizado y con un modelo empírico que combina datos oceanográficos con información sobre la distribución de los peces en relación con las condiciones ambientales. EI árbol de regresión fue mas parsimonioso y seria mas fácil de utilizar que los dos otros modelos, pero no proporciono información sobre los mecanismos que causaron que las CPUE de patudo valiaran en el tiempo y en el espacio. Las CPUE de patudo aumentaron notablemente a mediados de los anos 80 y fueron mas variables en los extremos norte y sur de la zona de pesca. Estos dos resultados pueden ser explicados por cambios en la abundancia real y cambios en la capturabilidad. Los resultados de un arbal de regresión ajustado a un subconjunto de los datos indican que, en el OPO, el patudo es igualmente capturable con palangres regulares y profundos. Esto no es consistente con observaciones de que el patudo abunda mas a profundidad e indica que clasificación por tipo de arte (palangre regular 0 profundo) podría no ser una buena medida de la profundidad de captura. Se uso un algoritmo de templado simulado para resumir los resultados basados en el árbol clasificando las zonas de pesca en zonas con tendencias similares en la CPUE de patudo. El templado simulado podría ser útil para diseñar estratos espaciales en programas futuros de muestreo. (PDF contains 45 pages.)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente proyecto se centra en proteger a los peatones de las vías urbanas o de una fábrica donde conviven con robots móviles, pues son los mayores afectados en los acci- dentes producidos en estos entornos. El objetivo es diseñar un algoritmo basado en visión monocular capaz de detectar a los usuarios de forma rápida y precisa de tal forma que se tenga constancia en todo momento de los peatones que se encuentran delante del vehículo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El estudio de las redes complejas atrae cada vez más el interés de muchos investigadores por muchas razones obvias. Muchos sistemas tanto reales como tecnológicos pueden representarse como redes complejas, es decir, un conjunto de entidades en interacción de acuerdo a propiedades topológicas no triviales. La interacción entre los elementos de la red puede describir comportamientos globales tales como el tráfico en Internet, el servicio de suministro de electricidad o la evolución de los mercados. Una de las propiedades topológicas de los grafos que caracterizan estos sistemas complejos es la estructura de comunidad. La detección de comunidades tiene como objetivo la identificación de los módulos o grupos con alguna o varias propiedades en común basándose únicamente en la información codificada en la topología del grafo. La detección de comunidades es importante no sólo para caracterizar el grafo, sino que además ofrece información sobre la formación de la red así como sobre su funcionalidad. El estudio de las leyes subyacentes que gobiernan la dinámica y evolución de los sistemas complejos y la caracterización de sus grafos revela que las redes a gran escala, generalmente, se caracterizan por topologías complejas y estructuras heterogéneas. La estructura de conectividad de estas redes se manifiesta por la presencia de comunidades (clusters o grupos), es decir, conjuntos de nodos que comparten propiedades comunes o juegan roles similares en la red. Las comunidades pueden representar relaciones de amistad en las redes sociales, páginas web con una temática similar, o rutas bioquímicas en las redes metabólicas. Formalmente, una red es un grafo compuesto por un gran número de nodos altamente interconectados donde una comunidad se resalta por la presencia de un gran número de aristas conectando nodos dentro de grupos individuales, pero con baja concentración de aristas entre estos grupos. El mejor modo para establecer la estructura de comunidad de una red compleja es un problema todavía sin resolver. Durante los últimos años, se han propuesto muchos algoritmos que persiguen extraer la partición óptima de una red en comunidades. El clustering espectral, los algoritmos de particionamiento de grafos, los métodos basados en la modularidad o los algoritmos basados en la sincronización son sólo algunos de estos algoritmos de extracción de comunidades. Los algoritmos dinámicos basados en la sincronización han sido estudiados por varios autores, y han demostrado que la monitorización del proceso dinámico de la sincronización permite revelar las diferentes escalas topologicas presentes en una red compleja. Muchos de estos algoritmos se basan en el modelo Kuramoto o en algunas de sus variantes como el modelo de opinión, donde cada oscilador aislado es modelado en un espacio unidimensional. El objetivo principal del presente proyecto es la implementación de un algoritmo de detección de comunidades basado en la sincronización de osciladores acoplados. Cada oscilador ha sido modelado mediante el sistema dinámico de Rossler, un sistema de ecuaciones diferenciales definido en un espacio tridimensional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sistema banatuak zenbait konputagailu edo gailu autonomoaz osaturiko sareak dira, non algoritmo banatuen bidez partaide guztien lana koordinatzen da entitate bakarra izatearen irudia emanez. Eredu honi esker sistemaren sendotasuna handitzen da, posible baita sistemak aurrera jarraitzea zenbait partaidek huts egin arren. Sistema banatuak diseinatzeak badu zenbait zailtasun, prozesu guztien arteko koordinazioa lortu behar baita. Erronka nagusietako bat adostasuna edo consensus lortzea da; hau da, prozesu guztiak ados jartzea zerbait erabaki behar dutenean. Ingurune desberdinetan planteatu badaiteke ere, lan honetan Byzantine ingurunean egingo da. Ingurune honetan partaideen hutsegiteak ausaz gerta daitezke eta edozein momentutan. Horrez gain, hutsegite horiek edozein motakoak izan daitezke, hala nola, prozesu bat bertan behera geratzea edota prozesu baten eskaera okerra edo lekuz kanpokoa egitea. Aurkeztutako consensus arazoa garrantzi handikoa da sistema banatuen arloan, honen bitartez beste hainbat helburu lortu baitaitezke. Horien artean Secure Multy-party Computation (SMC) dugu, non sare banatu bateko partaide guztiek adostasuna lotu behar dute partaide bakoitzaren informazioa gainontzekoei ezkutatuz. Horren adibide bezala “aberatsaren arazoa” azaldu ohi da, non partaide guztiek aurkitu behar dute zein den beraien artean aberatsena, partaide bakoitzak gainontzekoen “aberastasuna” ezagutu ahal izan gabe. SMC erabili daiteke soluzioa emateko planteamendu bera jarraitzen duten aplikazio erreal askori, hala nola, enkante pribatuak edo bozketak. SMC inplementatu ahal izateko TrustedPals izeneko plataforma dugu, non diseinu modularra jarraituz smartcard bat eta algoritmo banatuak konbinatzen dira lehenengo consensus eta ondoren SMC lortzeko. Karrera amaierako proiektu honen helburua TrustedPals proposamenaren alde praktikoa jorratzea izango da. Horretarako proposamenaren algoritmo banatuak inplementatu eta simulatuko dira zenbait probetako kasuetan. Simulazioak bideratzeko gertaera diskretuko NS-3 simulagailuan erabiliko da. Simulazio eszenario desberdinak inplementatuko dira eta ondoren emaitzak aztertuko dira.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[ES]Este proyecto consiste en el diseño de un sistema de control integrado para inversores de potencia monofásicos haciendo uso del algoritmo de eliminación de armónicos. De este modo, permite generar una señal de salida con frecuencia controlada, ideal para la alimentación de motores eléctricos monofásicos. El objetivo del mismo es lograr la implementación de un algoritmo de rendimiento superior a las alternativas PWM para casos de frecuencia de salida elevada. El sistema incluye el software y hardware necesario para implementación completa, así como los documentos necesarios para su fabricación en serie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[ES]Este proyecto tiene como objetivo analizar el rendimiento de diferentes técnicas criptográficas que el protocolo de movilidad HIP puede utilizar para proporcionar los servicios de seguridad que se determinen. Lo primero que se hará será seleccionar los diferentes algoritmos criptográficos que HIP podría utilizar para cubrir los servicios de seguridad considerados más relevantes, estos son autenticación, confidencialidad e integridad de datos. A continuación se identificarán los parámetros más significativos en relación al rendimiento y se definirá un escenario y un plan de pruebas para realizar las mediciones. Posteriormente se realizarán las mediciones con los algoritmos criptográficos previamente seleccionados, y por último se analizarán y valorarán los resultados obtenidos para así determinar la eficiencia de cada algoritmo criptográfico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[ES]Mejorar el proceso de handover en el despliegue de comunicaciones inalámbricas de banda ancha tradicionalmente ha motivado muchas iniciativas de investigación. En el dominio de los ferrocarriles de alta velocidad, el reto es incluso mayor. Debido a las largas distancias que se cubren, el nodo móvil se ve envuelto en una secuencia obligatoria de procesos de handover. Consecuentemente, un rendimiento pobre en la ejecución de esos procesos de handover degrada significativamente el rendimiento global extremo a extremo. Este documento propone una nueva estrategia de handover para el dominio de los ferrocarriles: un algoritmo de decisión para LTE basado en distancia en lugar de en potencia. La decisión de realizar el handover se realiza cuando un eNB candidato se encuentra más cerca del UE que el eNB fuente. Adicionalmente, cabe la posibilidad de retrasar esa decisión mediante un umbral. Asimismo, se añade una nueva función al modelo de LTE de la plataforma de simulación empleada en la verificación de este modelo. Este mecanismo de decisión introduce un retardo menor en los procesos de handover y, en consecuencia, la calidad extremo-a-extremo aumenta.