904 resultados para complessità computazionale primalità problemi polinomiali algoritmo aks


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El estudio de las redes complejas atrae cada vez más el interés de muchos investigadores por muchas razones obvias. Muchos sistemas tanto reales como tecnológicos pueden representarse como redes complejas, es decir, un conjunto de entidades en interacción de acuerdo a propiedades topológicas no triviales. La interacción entre los elementos de la red puede describir comportamientos globales tales como el tráfico en Internet, el servicio de suministro de electricidad o la evolución de los mercados. Una de las propiedades topológicas de los grafos que caracterizan estos sistemas complejos es la estructura de comunidad. La detección de comunidades tiene como objetivo la identificación de los módulos o grupos con alguna o varias propiedades en común basándose únicamente en la información codificada en la topología del grafo. La detección de comunidades es importante no sólo para caracterizar el grafo, sino que además ofrece información sobre la formación de la red así como sobre su funcionalidad. El estudio de las leyes subyacentes que gobiernan la dinámica y evolución de los sistemas complejos y la caracterización de sus grafos revela que las redes a gran escala, generalmente, se caracterizan por topologías complejas y estructuras heterogéneas. La estructura de conectividad de estas redes se manifiesta por la presencia de comunidades (clusters o grupos), es decir, conjuntos de nodos que comparten propiedades comunes o juegan roles similares en la red. Las comunidades pueden representar relaciones de amistad en las redes sociales, páginas web con una temática similar, o rutas bioquímicas en las redes metabólicas. Formalmente, una red es un grafo compuesto por un gran número de nodos altamente interconectados donde una comunidad se resalta por la presencia de un gran número de aristas conectando nodos dentro de grupos individuales, pero con baja concentración de aristas entre estos grupos. El mejor modo para establecer la estructura de comunidad de una red compleja es un problema todavía sin resolver. Durante los últimos años, se han propuesto muchos algoritmos que persiguen extraer la partición óptima de una red en comunidades. El clustering espectral, los algoritmos de particionamiento de grafos, los métodos basados en la modularidad o los algoritmos basados en la sincronización son sólo algunos de estos algoritmos de extracción de comunidades. Los algoritmos dinámicos basados en la sincronización han sido estudiados por varios autores, y han demostrado que la monitorización del proceso dinámico de la sincronización permite revelar las diferentes escalas topologicas presentes en una red compleja. Muchos de estos algoritmos se basan en el modelo Kuramoto o en algunas de sus variantes como el modelo de opinión, donde cada oscilador aislado es modelado en un espacio unidimensional. El objetivo principal del presente proyecto es la implementación de un algoritmo de detección de comunidades basado en la sincronización de osciladores acoplados. Cada oscilador ha sido modelado mediante el sistema dinámico de Rossler, un sistema de ecuaciones diferenciales definido en un espacio tridimensional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sistema banatuak zenbait konputagailu edo gailu autonomoaz osaturiko sareak dira, non algoritmo banatuen bidez partaide guztien lana koordinatzen da entitate bakarra izatearen irudia emanez. Eredu honi esker sistemaren sendotasuna handitzen da, posible baita sistemak aurrera jarraitzea zenbait partaidek huts egin arren. Sistema banatuak diseinatzeak badu zenbait zailtasun, prozesu guztien arteko koordinazioa lortu behar baita. Erronka nagusietako bat adostasuna edo consensus lortzea da; hau da, prozesu guztiak ados jartzea zerbait erabaki behar dutenean. Ingurune desberdinetan planteatu badaiteke ere, lan honetan Byzantine ingurunean egingo da. Ingurune honetan partaideen hutsegiteak ausaz gerta daitezke eta edozein momentutan. Horrez gain, hutsegite horiek edozein motakoak izan daitezke, hala nola, prozesu bat bertan behera geratzea edota prozesu baten eskaera okerra edo lekuz kanpokoa egitea. Aurkeztutako consensus arazoa garrantzi handikoa da sistema banatuen arloan, honen bitartez beste hainbat helburu lortu baitaitezke. Horien artean Secure Multy-party Computation (SMC) dugu, non sare banatu bateko partaide guztiek adostasuna lotu behar dute partaide bakoitzaren informazioa gainontzekoei ezkutatuz. Horren adibide bezala “aberatsaren arazoa” azaldu ohi da, non partaide guztiek aurkitu behar dute zein den beraien artean aberatsena, partaide bakoitzak gainontzekoen “aberastasuna” ezagutu ahal izan gabe. SMC erabili daiteke soluzioa emateko planteamendu bera jarraitzen duten aplikazio erreal askori, hala nola, enkante pribatuak edo bozketak. SMC inplementatu ahal izateko TrustedPals izeneko plataforma dugu, non diseinu modularra jarraituz smartcard bat eta algoritmo banatuak konbinatzen dira lehenengo consensus eta ondoren SMC lortzeko. Karrera amaierako proiektu honen helburua TrustedPals proposamenaren alde praktikoa jorratzea izango da. Horretarako proposamenaren algoritmo banatuak inplementatu eta simulatuko dira zenbait probetako kasuetan. Simulazioak bideratzeko gertaera diskretuko NS-3 simulagailuan erabiliko da. Simulazio eszenario desberdinak inplementatuko dira eta ondoren emaitzak aztertuko dira.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[ES]Este proyecto consiste en el diseño de un sistema de control integrado para inversores de potencia monofásicos haciendo uso del algoritmo de eliminación de armónicos. De este modo, permite generar una señal de salida con frecuencia controlada, ideal para la alimentación de motores eléctricos monofásicos. El objetivo del mismo es lograr la implementación de un algoritmo de rendimiento superior a las alternativas PWM para casos de frecuencia de salida elevada. El sistema incluye el software y hardware necesario para implementación completa, así como los documentos necesarios para su fabricación en serie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[ES]Este proyecto tiene como objetivo analizar el rendimiento de diferentes técnicas criptográficas que el protocolo de movilidad HIP puede utilizar para proporcionar los servicios de seguridad que se determinen. Lo primero que se hará será seleccionar los diferentes algoritmos criptográficos que HIP podría utilizar para cubrir los servicios de seguridad considerados más relevantes, estos son autenticación, confidencialidad e integridad de datos. A continuación se identificarán los parámetros más significativos en relación al rendimiento y se definirá un escenario y un plan de pruebas para realizar las mediciones. Posteriormente se realizarán las mediciones con los algoritmos criptográficos previamente seleccionados, y por último se analizarán y valorarán los resultados obtenidos para así determinar la eficiencia de cada algoritmo criptográfico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[ES]Mejorar el proceso de handover en el despliegue de comunicaciones inalámbricas de banda ancha tradicionalmente ha motivado muchas iniciativas de investigación. En el dominio de los ferrocarriles de alta velocidad, el reto es incluso mayor. Debido a las largas distancias que se cubren, el nodo móvil se ve envuelto en una secuencia obligatoria de procesos de handover. Consecuentemente, un rendimiento pobre en la ejecución de esos procesos de handover degrada significativamente el rendimiento global extremo a extremo. Este documento propone una nueva estrategia de handover para el dominio de los ferrocarriles: un algoritmo de decisión para LTE basado en distancia en lugar de en potencia. La decisión de realizar el handover se realiza cuando un eNB candidato se encuentra más cerca del UE que el eNB fuente. Adicionalmente, cabe la posibilidad de retrasar esa decisión mediante un umbral. Asimismo, se añade una nueva función al modelo de LTE de la plataforma de simulación empleada en la verificación de este modelo. Este mecanismo de decisión introduce un retardo menor en los procesos de handover y, en consecuencia, la calidad extremo-a-extremo aumenta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nas últimas décadas, teorias têm sido formuladas para interpretar o comportamento de solos não saturados e estas têm se mostrado coerentes com resultados experimentais. Paralelamente, várias técnicas de campo e de laboratório têm sido desenvolvidas. No entanto, a determinação experimental dos parâmetros dos solos não saturados é cara, morosa, exige equipamentos especiais e técnicos experientes. Como resultado, essas teorias têm aplicação limitada a pesquisas acadêmicas e são pouco utilizados na prática da engenharia. Para superar este problema, vários pesquisadores propuseram equações para representar matematicamente o comportamento de solos não saturados. Estas proposições são baseadas em índices físicos, caracterização do solo, em ensaios convencionais ou simplesmente em ajustes de curvas. A relação entre a umidade e a sucção matricial, convencionalmente denominada curva característica de sucção do solo (SWCC) é também uma ferramenta útil na previsão do comportamento de engenharia de solos não saturados. Existem muitas equações para representar matematicamente a SWCC. Algumas são baseadas no pressuposto de que sua forma está diretamente relacionada com a distribuição dos poros e, portanto, com a granulometria. Nestas proposições, os parâmetros são calibrados pelo ajuste da curva de dados experimentais. Outros métodos supõem que a curva pode ser estimada diretamente a partir de propriedades físicas dos solos. Estas propostas são simples e conveniente para a utilização prática, mas são substancialmente incorretas, uma vez que ignoram a influência do teor de umidade, nível de tensões, estrutura do solo e mineralogia. Como resultado, a maioria tem sucesso limitado, dependendo do tipo de solo. Algumas tentativas têm sido feitas para prever a variação da resistência ao cisalhamento com relação a sucção matricial. Estes procedimentos usam, como uma ferramenta, direta ou indiretamente, a SWCC em conjunto com os parâmetros efetivos de resistência c e . Este trabalho discute a aplicabilidade de três equações para previsão da SWCC (Gardner, 1958; van Genuchten, 1980; Fredlund; Xing, 1994) para vinte e quatro amostras de solos residuais brasileiros. A adequação do uso da curva característica normalizada, proposta por Camapum de Carvalho e Leroueil (2004), também foi investigada. Os parâmetros dos modelos foram determinados por ajuste de curva, utilizando técnicas de problema inverso; dois métodos foram usados: algoritmo genético (AG) e Levenberq-Marquardt. Vários parâmetros que influênciam o comportamento da SWCC são discutidos. A relação entre a sucção matricial e resistência ao cisalhamento foi avaliada através de ajuste de curva utilizando as equações propostas por Öberg (1995); Sällfors (1997), Vanapalli et al., (1996), Vilar (2007); Futai (2002); oito resultados experimentais foram analisados. Os vários parâmetros que influênciam a forma da SWCC e a parcela não saturadas da resistência ao cisalhamento são discutidos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os principais constituintes do ar, nitrogênio, oxigênio e argônio, estão cada vez mais presentes nas indústrias, onde são empregados nos processos químicos, para o transporte de alimentos e processamento de resíduos. As duas principais tecnologias para a separação dos componentes do ar são a adsorção e a destilação criogênica. Entretanto, para ambos os processos é necessário que os contaminantes do ar, como o gás carbônico, o vapor dágua e hidrocarbonetos, sejam removidos para evitar problemas operacionais e de segurança. Desta forma, o presente trabalho trata do estudo do processo de pré-purificação de ar utilizando adsorção. Neste sistema a corrente de ar flui alternadamente entre dois leitos adsorvedores para produzir ar purificado continuamente. Mais especificamente, o foco da dissertação corresponde à investigação do comportamento de unidades de pré-purificação tipo PSA (pressure swing adsorption), onde a etapa de dessorção é realizada pela redução da pressão. A análise da unidade de pré-purificação parte da modelagem dos leitos de adsorção através de um sistema de equações diferenciais parciais de balanço de massa na corrente gasosa e no leito. Neste modelo, a relação de equilíbrio relativa à adsorção é descrita pela isoterma de Dubinin-Astakhov estendida para misturas multicomponentes. Para a simulação do modelo, as derivadas espaciais são discretizadas via diferenças finitas e o sistema de equações diferenciais ordinárias resultante é resolvido por um solver apropriado (método das linhas). Para a simulação da unidade em operação, este modelo é acoplado a um algoritmo de convergência relativo às quatro etapas do ciclo de operação: adsorção, despressurização, purga e dessorção. O algoritmo em questão deve garantir que as condições finais da última etapa são equivalentes às condições iniciais da primeira etapa (estado estacionário cíclico). Desta forma, a simulação foi implementada na forma de um código computacional baseado no ambiente de programação Scilab (Scilab 5.3.0, 2010), que é um programa de distribuição gratuita. Os algoritmos de simulação de cada etapa individual e do ciclo completo são finalmente utilizados para analisar o comportamento da unidade de pré-purificação, verificando como o seu desempenho é afetado por alterações nas variáveis de projeto ou operacionais. Por exemplo, foi investigado o sistema de carregamento do leito que mostrou que a configuração ideal do leito é de 50% de alumina seguido de 50% de zeólita. Variáveis do processo foram também analisadas, a pressão de adsorção, a vazão de alimentação e o tempo do ciclo de adsorção, mostrando que o aumento da vazão de alimentação leva a perda da especificação que pode ser retomada reduzindo-se o tempo do ciclo de adsorção. Mostrou-se também que uma pressão de adsorção maior leva a uma maior remoção de contaminantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O dano e sua causa apresentam-se, em conjunto, como um dilema inerente a uma sociedade que incorporou o risco como produto do seu próprio desenvolvimento. Desde tempos imemoriais a solidariedade figura como instrumento imprescindível à composição das diferentes formas possíveis para minimizar os efeitos negativos do implemento de um risco seja através da transferência de suas consequências econômicas para quem, por sua atividade o produziu ou, esteja melhor preparado para suportá-lo. Entretanto, as formas privadas tradicionais, isoladamente mostram-se insuficientes para responder satisfatoriamente à necessidade de reparação dos danos na atualidade. Isto porque, via de regra, os instrumentos para tal foram desenvolvidas em uma perspectiva individual, tendo como premissa a identificação da causa do dano e, a partir daí, a possibilidade de imputação de responsabilidade. Contemporaneamente, contudo, os danos usualmente resultam de causas múltiplas e, mesmo quando decorrem de causa única, essa pode estar relacionada a um conjunto de agentes, de forma a não ser possível a individuação do ofensor. Neste contexto, torna-se imprescindível a construção de uma noção jurídica de causalidade, apta a solucionar questões críticas, tais como a do dano causado por membro indeterminado de um grupo. Esta noção, por seu turno, requer uma base solidária mais aprofundada, de sorte a permitir a reparação do dano injusto sofrido pela vítima, sem arruinar o ofensor. Afirma-se, então, que a reparação integral dos danos em uma sociedade de risco depende de uma nova concepção acerca da solidariedade: a solidariedade global. E, indo além, a fase atual impõe a necessidade de se repensar a própria base do sistema de responsabilidade civil, como decorrência necessária de uma nova orientação jus-filosófica, inspirada por valores personalistas e solidaristas e também em razão da própria evolução social que potencializou os problemas que gravitam em torno da solidariedade e do risco, notadamente em razão da coletivização das causas dos danos. Assim, se há cada vez mais solidariedade nas causas e nos danos, deve haver também solidariedade na reparação. Nessa perspectiva, a presente dissertação tratará da coletivização da responsabilidade civil em relação à causa dos danos, na hipótese de responsabilidade grupal, e em referência à reparação dos danos em uma perspectiva convergente dos institutos do seguro e da responsabilidade civil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, é proposta uma nova família de métodos a ser aplicada à otimização de problemas multimodais. Nestas técnicas, primeiramente são geradas soluções iniciais com o intuito de explorar o espaço de busca. Em seguida, com a finalidade de encontrar mais de um ótimo, estas soluções são agrupadas em subespaços utilizando um algoritmo de clusterização nebulosa. Finalmente, são feitas buscas locais através de métodos determinísticos de otimização dentro de cada subespaço gerado na fase anterior com a finalidade de encontrar-se o ótimo local. A família de métodos é formada por seis variantes, combinando três esquemas de inicialização das soluções na primeira fase e dois algoritmos de busca local na terceira. A fim de que esta nova família de métodos possa ser avaliada, seus constituintes são comparados com outras metodologias utilizando problemas da literatura e os resultados alcançados são promissores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[ES]En este proyecto se presenta un estudio sobre la estimación de la longitud efectiva de lluvia derivada de los escaneos de elevación obtenidos por el radar meteorológico de Kapildui, en Álava. Se estudia la altura y la longitud de la lluvia para distintos eventos: para lluvia estratiforme y para lluvia convectiva. Se analizará la variabilidad espacial y temporal para diferentes ángulos de elevación del radar. Finalmente, se presentará una versión del algoritmo implementado para el cálculo de longitudes efectivas de lluvia y se realizará un estudio estadístico de la variabilidad de ésta para diferentes direcciones y con diferentes eventos de lluvia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta dissertação, foi utilizada a técnica SIFT (Scale Invariant Feature Transform) para o reconhecimento de imagens da área dos olhos (região periorbital). Foi implementada uma classificação das imagens em subgrupos internos ao banco de dados, utilizando-se das informações estatísticas provenientes dos padrões invariantes produzidos pela técnica SIFT. Procedeu-se a uma busca categorizada pelo banco de dados, ao invés da procura de um determinado padrão apresentado, através da comparação deste com cada padrão presente no banco de dados. A tais padrões foi aplicada uma abordagem estatística, através da geração da matriz de covariâncias dos padrões gerados, sendo esta utilizada para a categorização, tendo por base uma rede neural híbrida. A rede neural classifica e categoriza o banco de dados de imagens, criando uma topologia de busca. Foram obtidos resultados corretos de classificação de 76,3% pela rede neural híbrida, sendo que um algoritmo auxiliar determina uma hierarquia de busca, onde, ocorrendo uma errônea classificação, a busca segue em grupos de pesquisas mais prováveis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Análisis de caucho reciclado de manera hiperelástica mediante métodos de ajuste de Mínimos Cuadrados con programa MATLAB y Curve fitting mediante ANSYS. Para la parte viscoelástica se usa Algoritmo de Optimicación con MATLAB. Comprobación de resultados y fiabilidad.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta Tesis Doctoral presenta un metamodelo para la estimaci�n del fen�meno de interacci�n el�stica en las uniones atornilladas de torres de aerogenerador, cuya principal particularidad geom�trica es la existencia de un hueco entre bridas. El metamodelo permite conocer la p�rdida de carga que cada tornillo de la uni�n experimenta durante la secuencia de atornillado a consecuencia de la interacci�n el�stica ocurrida. El metamodelo consta de cuatro par�metros (resortes lineales) que simulan la respuesta de la uni�n durante la secuencia, y cuyos valores se obtienen a partir de dos an�lisis est�tico-lineales. Se ha creado un algoritmo que, a trav�s del metamodelo, permite llevar a cabo la simulaci�n de secuencias de atornillado; dicho proceso consiste en reproducir una determinada secuencia de atornillado a partir de las cargas introducidas en los tornillos, de forma que, a trav�s de la estimaci�n de las interacciones el�sticas ocurridas durante la secuencia, proporciona como resultado las cargas finales en los tornillos. Tambi�n se ha desarrollado una metodolog�a que, mediante su correspondiente algoritmo, permite optimizar secuencias de atornillado. El proceso de optimizaci�n consiste en calcular las cargas a aplicar a los tornillos a lo largo de una determinada secuencia a fin de obtener en ellos una determinada distribuci�n final de cargas, que generalmente se desea uniforme y se denomina precarga. Combinando los procesos de simulaci�n y optimizaci�n, el metamodelo permite definir la secuencia �ptima para una determinada uni�n. Los resultados obtenidos han sido validados mediante modelos param�tricos de elementos finitos. Por �ltimo, debe remarcarse que, adem�s de proporcionar buenos resultados, tanto el proceso de simulaci�n como el de optimizaci�n se llevan a cabo con un coste computacional muy bajo gracias a la simplicidad del metamodelo.