999 resultados para Algoritmo de Prim
Resumo:
In this thesis I propose a novel method to estimate the dose and injection-to-meal time for low-risk intensive insulin therapy. This dosage-aid system uses an optimization algorithm to determine the insulin dose and injection-to-meal time that minimizes the risk of postprandial hyper- and hypoglycaemia in type 1 diabetic patients. To this end, the algorithm applies a methodology that quantifies the risk of experiencing different grades of hypo- or hyperglycaemia in the postprandial state induced by insulin therapy according to an individual patient’s parameters. This methodology is based on modal interval analysis (MIA). Applying MIA, the postprandial glucose level is predicted with consideration of intra-patient variability and other sources of uncertainty. A worst-case approach is then used to calculate the risk index. In this way, a safer prediction of possible hyper- and hypoglycaemic episodes induced by the insulin therapy tested can be calculated in terms of these uncertainties.
Resumo:
Aquesta tesi presenta un nou mètode pel disseny invers de reflectors. Ens hem centrat en tres temes principals: l’ús de fonts de llum reals i complexes, la definició d’un algoritme ràpid pel càlcul de la il•luminació del reflector, i la definició d’un algoritme d’optimització per trobar més eficientment el reflector desitjat. Les fonts de llum estan representades per models near-field, que es comprimeixen amb un error molt petit, fins i tot per fonts de llum amb milions de raigs i objectes a il•luminar molt propers. Llavors proposem un mètode ràpid per obtenir la distribució de la il•luminació d’un reflector i la seva comparació amb la il•luminació desitjada, i que treballa completament en la GPU. Finalment, proposem un nou mètode d’optimització global que permet trobar la solució en menys passos que molts altres mètodes d’optimització clàssics, i alhora evitant mínims locals.
Resumo:
S'estudia la histologia normal de la paret corporal d'Hirudo medicinalis i els canvis morfogenètics que es donen durant el procés de cicatrització de ferides per incisió, cauterització i nitrat de plata. El procés de curació de ferides a Hirudo medicinalis consta d'una fase de formació d'un tap cel·lular, el pseudoblastema, d'un procés de reepitelització i de la formació d'un teixit cicatricial, com en els altres hirudinis estudiats (Myers, 1935; LeGore i Sparks, 1971; Cornec, 1984). Hem observat també el fenomen de la contracció de la ferida que permet l'acostament dels marges de la ferida. Formació i evolució del pseudoblastema El pseudoblastema, a diferència d'altres espècies estudiades, està format per un sol tipus cel·lular: les cèl·lules vasocentrals, provinents del teixit vasofibrós, una especialització del teixit connectiu. Aquestes cèl·lules estan capacitades per realitzar les diferents funcions que en espècies rincobdèl·lides realitzen diferents tipus cel·lulars. En concret: taponament de la ferida a través de la formació del pseudoblastema, fagocitosi dels teixits necrosats i regeneració, almenys d'una part, de la matriu connectiva cicatricial. També són responsables de la contracció de la ferida. Les cèl·lules vasocentrals en el seu estadi de repòs es troben en el teixit vasofibrós formant agrupacions coherents, però sense mostrar unions intercel·lulars especialitzades visibles en ME. La coherència del grup queda assegurada per les interdigitacions entre les cèl·lules vasocentrals i probablement per unions tipus adherens o especialitzades. Les unions amb la matriu són de tipus adherens. Aquestes cèl·lules vasocentrals presenten feixos de filaments d'actina força conspicus. En produir-se una ferida les cèl·lules vasocentrals s'activen, desconnecten les unions intercel·lulars i amb la matriu i migren cap a la zona afectada, on s'acumulen. El pseudoblastema actua com un tap cel·lular que funciona de forma eficient per tancar la ferida en un plaç de temps relativament curt. El pseudoblastema forma un teixit coherent amb unions intercel·lulars tipus adherens, caracteritzades per material electrodens en la cara intracitoplasmàtica, feixos de filaments d'actina que hi convergeixen i espais intercel·lulars petits, de 17-20 mm, atravessats per petites fibril·les. Un cop finalitzat el procés de reepitelització, es produeix una contracció de la ferida. Es produeix per la retracció del pseudoblastema cap a l'interior de l'animal. El pseudoblastema disminueix la seva amplària i arrossega els teixits contigus provocant un tancament. La força motriu que provoca la retracció i l'arrossegament dels teixits vindria donada per la presència dels filaments d'actina a les cèl·lules del pseudoblastema, els quals durant aquesta fase es tornen mes conspicus. La presència d'unions intercel·lulars especialitzades característiques de la fase de contracció, està relacionada amb la transmissió de la força de tensió. Aquestes unions connecten els feixos de filaments d'actina de les cèl·lules amb la matriu o d'una cèl·lula a altre a través d'espais intercel·lulars força amples en els que s'observa material electrodens. Reepitelització L'epitelització s'inicia quan el pseudoblastema està consolidat i segueix el mateix patró que la reepitelització de ferides en epitelis monoestratificats de vertebrats (Stem i DePalma, 1983, és a dir, per migració de tota la capa per sobre del substrat, segons l'anomenat model de lliscament. Les glàndules unicel·lulars mucoses del tegument degeneren abans de produir-se la migració epitelial i posteriorment, un cop consolidat l'epiteli a sobre de la ferida, es diferencien a partir de les cèl·lules epitelials. Durant l'epitelització es produeixen canvis importants en el citosquelet i les unions basals de les cèl·lules epitelials. En canvi, el complex d'unió lateral es manté durant tot el procés. En iniciar-se la migració els tonofilaments es desconnecten dels hemidesmosomes cuticulars i dèrmics i es reagrupen al voltant del nucli, a la vegada que els hemidesmosomes dèrmics es desconnecten de la làmina basal. Un cop acabada la migració, les cèl·lules epitelials estableixen unions basals amb les cèl·lules del pseudoblastema. Aquestes unions no són hemidesmosomes sinó que presenten el mateix aspecte que les unions intercel·lulars del pseudoblastema. Els hemidesmosomes no es tornen a formar fins que les cèl·lules epitelials han restablert la membrana basal. La regeneració de la membrana basal no s'inicia fins que no s'ha començat a regenerar matriu connectiva a la zona cicatricial. Regeneració de la cicatriu Al mateix temps que es dona el fenomen de contracció, s'observa regeneració de la matriu connectiva entre les cèl·lules del pseudoblastema. Aquestes cèl·lules són responsables almenys del recobriment fibrós que presenten en aquest estadi, durant el qual mostren sàculs del reticle endoplasmàtic rugós molt dilatats, característics de cèl·lules que secreten constituents de la matriu. A més, s'observa infiltració de matriu connectiva i processos citoplasmàtics dels fibròcits en els marges del pseudoblastema. En la matriu del teixit connectiu normal s'observen fibres que estan constituïdes per un còrtex de fibril·les col·làgenes organitzades al voltant dels processos citoplasmàtics dels fibròcits. Les fibres del teixit connectiu peridigestiu, d'uns 1,2-1,9 mm de diàmetre, presenten el còrtex prim, amb les fibril·les organitzades paral·lelament a l'eix de la fibra. En canvi, les fibres de la dermis i teixit connectiu intramuscular, d'uns 2,5-7,1 mm de diàmetre, tenen el còrtex gruixut, amb fibril·les que s'organitzen paral·lelament en la zona proximal a la medul·la i de forma desorganitzada en la part més distal. Als 8 mesos la cicatriu encara és detectable. La matriu cicatricial presenta fibres connectives del tipus prim i força material fibril·lar desorganitzat disposat laxament. S'observa colonització per part de fibròcits, cromatòfors, petites fibres musculars i nervis.
Resumo:
Muchas de las nuevas aplicaciones emergentes de Internet tales como TV sobre Internet, Radio sobre Internet,Video Streamming multi-punto, entre otras, necesitan los siguientes requerimientos de recursos: ancho de banda consumido, retardo extremo-a-extremo, tasa de paquetes perdidos, etc. Por lo anterior, es necesario formular una propuesta que especifique y provea para este tipo de aplicaciones los recursos necesarios para su buen funcionamiento. En esta tesis, proponemos un esquema de ingeniería de tráfico multi-objetivo a través del uso de diferentes árboles de distribución para muchos flujos multicast. En este caso, estamos usando la aproximación de múltiples caminos para cada nodo egreso y de esta forma obtener la aproximación de múltiples árboles y a través de esta forma crear diferentes árboles multicast. Sin embargo, nuestra propuesta resuelve la fracción de la división del tráfico a través de múltiples árboles. La propuesta puede ser aplicada en redes MPLS estableciendo rutas explícitas en eventos multicast. En primera instancia, el objetivo es combinar los siguientes objetivos ponderados dentro de una métrica agregada: máxima utilización de los enlaces, cantidad de saltos, el ancho de banda total consumido y el retardo total extremo-a-extremo. Nosotros hemos formulado esta función multi-objetivo (modelo MHDB-S) y los resultados obtenidos muestran que varios objetivos ponderados son reducidos y la máxima utilización de los enlaces es minimizada. El problema es NP-duro, por lo tanto, un algoritmo es propuesto para optimizar los diferentes objetivos. El comportamiento que obtuvimos usando este algoritmo es similar al que obtuvimos con el modelo. Normalmente, durante la transmisión multicast los nodos egresos pueden salir o entrar del árbol y por esta razón en esta tesis proponemos un esquema de ingeniería de tráfico multi-objetivo usando diferentes árboles para grupos multicast dinámicos. (en el cual los nodos egresos pueden cambiar durante el tiempo de vida de la conexión). Si un árbol multicast es recomputado desde el principio, esto podría consumir un tiempo considerable de CPU y además todas las comuicaciones que están usando el árbol multicast serán temporalmente interrumpida. Para aliviar estos inconvenientes, proponemos un modelo de optimización (modelo dinámico MHDB-D) que utilice los árboles multicast previamente computados (modelo estático MHDB-S) adicionando nuevos nodos egreso. Usando el método de la suma ponderada para resolver el modelo analítico, no necesariamente es correcto, porque es posible tener un espacio de solución no convexo y por esta razón algunas soluciones pueden no ser encontradas. Adicionalmente, otros tipos de objetivos fueron encontrados en diferentes trabajos de investigación. Por las razones mencionadas anteriormente, un nuevo modelo llamado GMM es propuesto y para dar solución a este problema un nuevo algoritmo usando Algoritmos Evolutivos Multi-Objetivos es propuesto. Este algoritmo esta inspirado por el algoritmo Strength Pareto Evolutionary Algorithm (SPEA). Para dar una solución al caso dinámico con este modelo generalizado, nosotros hemos propuesto un nuevo modelo dinámico y una solución computacional usando Breadth First Search (BFS) probabilístico. Finalmente, para evaluar nuestro esquema de optimización propuesto, ejecutamos diferentes pruebas y simulaciones. Las principales contribuciones de esta tesis son la taxonomía, los modelos de optimización multi-objetivo para los casos estático y dinámico en transmisiones multicast (MHDB-S y MHDB-D), los algoritmos para dar solución computacional a los modelos. Finalmente, los modelos generalizados también para los casos estático y dinámico (GMM y GMM Dinámico) y las propuestas computacionales para dar slución usando MOEA y BFS probabilístico.
Resumo:
Correntes permanentes em anéis mesoscópicos imersos num campo magnético constante foram pela primeira vez observadas experimentalmente em 1990, apresentando intensidades entre uma a duas ordens de grandeza superiores aos valores previstos teoricamente, uma discrepância que permanece por resolver. Neste trabalho apresenta-se um estudo em que se considera um modelo com uma impureza e interações repulsivas entre os eletrões do anel. Através da transformação de Jordan-Wigner obtém-se o hamiltoneano XXZ para cadeias de spin 1/2, com um defeito de troca e condições de fronteira “torcidas”. Utilizando o algoritmo do Grupo de Renormalização da Matriz Densidade (DMRG) estudamos os coeficientes de Fourier da corrente permanente e do respetivo peso de Drude em função da intensidade das interações e do tamanho do anel. Observamos que a amplitude da corrente permanente e o valor do peso de Drude são sempre diminuídos pelas interações.
Resumo:
Los supuestos fundamentales de la Teoría de la Computabilidad se establecieron antes de la aparición de los primeros ordenadores (a finales de los años 40), supuestos que muchos años de vertiginoso cambio no han conseguido alterar. Alan Mathison Turing demostró ya entonces que ningún ordenador, por muy potente que lo imaginemos, podría resolver algunas cuestiones. Estos problemas para los que no existe ningún algoritmo posible, los incomputables, no son excepcionales y hay un gran número de ellos entre los problemas que se plantean en torno al comportamiento de los programas. El problema de parada, es sin duda el miembro más conocido de esta familia: no existe un algoritmo para decidir con carácter general si un programa ciclará o no al recibir unos datos de entrada concretos. Para demostrar la incomputabilidad de un problema necesitamos un argumento lógico que certifique la inexistencia de algoritmo, o lo que es lo mismo, que pruebe que ninguno de los algoritmos existentes es capaz de resolver dicho problema. Tal argumento de carácter universal no suele ser sencillo de establecer, y normalmente suele estar relacionado con una demostración por reducción al absurdo. Existen distintas técnicas para lograr este objetivo. La técnica de diagonalización es la más básica de ellas, y resulta bastante conocida al no tratarse de una herramienta específica de la Informática Teórica. En este documento no se trata de explicar la técnica en sí, que se supone conocida, sino de ilustrarla con una colección de ejemplos de diferente grado de dificultad.
Resumo:
Konputagarritasunaren Teoriaren oinarriak lehenengo ordenadoreak azaldu aurretik (40. hamarkadaren bukaera aldera) ezarri ziren, eta ziztu biziko eta etenik gabeko eraldaketek aldatzea lortu ez duten oinarriak dira. Alan Mathison Turing-ek jadanik garai hartan frogatu zuen, ahalik eta potentzia handienekoa imajinatuta ere, inolako ordenadorek ebatzi ezingo zituen zenbait gai edo arazo bazeudela. Balizko algoritmorik ez duten problema horiek, konputaezinak deitzen ditugunak, ez dira salbuespenak eta adibide ugari aurki dezakegu. Programen portaeraren inguruan planteatzen diren problemen artean, asko konputaezinak dira. Familia horretako kide ezagunena, zalantzarik gabe, geratze problema da: sarrerako datu zehatz batzuk hartzerakoan, programa bat begizta infinituan geratuko ote den era orokorrean erabakitzeko algoritmorik ez dago. Problema baten konputaezintasuna frogatzeko, hau ebatziko duen algoritmo zehatz bat existitzen ez dela ziurtatuko duen argumentu logikoa behar dugu, edo beste era batera esanda, existitzen diren algoritmoak problema hori ebazteko gai izango ez direla egiaztatuko duen argumentua. Izaera unibertsaleko argumentu hori ezartzea ez da batere erraza izaten, eta normalean, absurduraino eramandako frogapen batekin erlazionatuta egon ohi da. Helburu hori lortzeko zenbait teknika daude. Diagonalizazioaren teknika horien artean oinarrizkoena da, eta nahiko ezaguna, ez baita Informatika Teorikoaren tresna espezifikoa. Dokumentu honen helburua ez da teknika bera azaldu edo deskribatzea, ezaguntzat hartzen baita, zailtasun maila desberdineko hainbat adibideren bitartez argitzea baizik.
Resumo:
Följande sammanfattar erfarenheterna inom projektet:- Besparing av primärenergi är väldigt beroende av ett fåtal faktorer där primärenergi faktor för generering av el till nätet är avgörande. I projektet använde man termen ”non-renewable primary energy” där förnybara källor som bioenergi och även sopförbränning har väldigt låga värden. Om man använder den europeiska mixen för elproduktion ger enbartkraftvärme nästan alltid besparing av primär energi. Det samma gäller system där man använder förnybar energi eller sopförbränning. För system med trigenerering som använder fossila bränslen måste man ha både hög andel elproduktion från kraftvärmeaggregatet och relativt hög COP för den värmedrivna kylmaskinen om man ska få en besparing av primärenergi.- Systemen är komplexa och man har lärt sig mycket inom projektet. Dock har man inte kommit så långt som standard systempaket.- Elförbrukning är oftast högre än förväntat och i verklighet högre än specificerat.- Värmesänkan i systemet är en nyckelkomponent som är kritiskt för bra systemprestanda. Mer FoU krävs för att få fram komponenter som lämpar sig väl till sådana system (och som skulle också gynna andra system).- Mätning av systemet med tillhörande analys har behövts för att förbättra systemprestanda, vilket är kopplat till att system är komplexa och att det inte fanns en grundläggande kompetens i början av projektet hos alla partners.- Lovande nischmarknader har identifierats men de kräver förmodligen paketlösningar som inte finns på marknaden än.- Man ska enbart täcka baslasten med trigenereringssystem.- Koppling med fjärrvärme kan fungera bra men leverantören måste acceptera relativt höga returtemperaturer.
Resumo:
Emissioner (utsläpp) från biobränsleeldning och därtill hörande hälsorisker har varit föremål för stora forskningssatsningar. Detta arbete avser att sammanställa olika åtgärder som kan vidtas inom småskalig biobränsleeldning för att ytterligare minska utsläppen. Arbetet bygger på en litteraturstudie där databaser och Internet har genomsökts efter litteratur och publikatio-ner, som redovisar olika tekniker för utsläppsminskningar. Undersökningen ska ge en över-blick över olika tekniker för emissionsminskning och dessutom försöka kvantifiera minsk-ningspotentialen med respektive teknik.Genomgången visar på en rad olika möjligheter för att minska emissionerna. Det innefattar primära åtgärder som optimal eldstadsutformning och att elda rätt. Stora minskningar kan också göras genom att styra lufttillförseln på ett bra sätt, till exempel genom stegad lufttillför-sel och användning av gassensorer. Mer avancerad teknik för att styra start och stopp samt eventuell effektreglering av brännare kan också minska emissionerna. Solvärme minskar emissionerna under sommarhalvåret genom att ersätta låglastdriften, som har högst emissioner per producerad kWh. Gemensamt för ovanstående åtgärder är, att de också ökar systemens verkningsgrad och därmed finns ett ekonomiskt motiv till att genomföra åtgärderna.Tekniker för aktiv rening, som elektrostatiska filter och katalysatorer, har svårare att komma ut på marknaden, då de inte ger några ekonomiska vinster för brukaren. Här krävs i så fall att myndighetskraven skärps.För att minska emissionerna från småskalig eldning ur ett nationellt perspektiv är det främst från den småskaliga vedeldningen som emissionerna måste minskas. Här kan man snabbast nå minskningar genom utbildning av dem som eldar med ved samt genom att införa ackumula-tortankar. Emissioner från lokaleldstäder blir svårast att minska då det fortfarande installeras icke miljögodkänd utrustning och då livslängden för dessa eldstäder är mycket lång.
Resumo:
O objetivo deste trabalho é a proposta de uma arquitetura especial para simulação lógica (AESL). As técnicas e modelos utilizados no processo de simulação lógica são brevemente revistos. É definida uma taxonomia para AESL sob a qual são analisadas diversas propostas de AESL relatadas na literatura. Uma taxonomia já existente é comparada com a proposta. A AESL definida é programável para diferentes algoritmos de simulação lógica. O detalhamento da AESL é, então, incrementado pela implementação de um algoritmo particular. Uma linguagem de simulação discreta é utilizada na construção de um modelo da arquitetura. Os resultados da simulação deste modelo permitem avaliar o desempenho da AESL e otimizar sua estrutura. Uma comparação com outras arquiteturas conclui a análise.
Resumo:
O objetivo deste trabalho é o dimensionamento de pilares esbeltos de concreto armado, sob cargas de curta e longa duração, baseado numa análise realística das deformações do mesmo. Apresenta-se três algoritmos numéricos para a obtencão das relações momento fletor-esforço normal-curvatura de uma seção arbitrária de concreto armado, sob flexo-compressão normal. Inclue-se as deformações específicas de fluência e retração do concreto na análise, através de uma alteração nas referidas relações. Apresenta-se alguns critérios de normas, relativos ao dimensionamento de pilares esbeltos de concreto armado e uma comparação dos mesmos, entre si e com o algoritmo numérico desenvolvido. Considerações da NB-1/78 relativas ao projeto de pilares são analisadas, verificando o nivel da precisão obtida. Um procedimento simplificado para a inclusão da fluência do concreto no dimensionamento, proposto pelo CEB, é testado e uma solução para pilares de concreto armado com engastamento elástico simétrico é apresentada, para verificar o nível: do erro cometido ao se estender o conceito de comprimento de flambagem a pilares de concreto armado. Uma série de exemplos experimentais são apresentados, onde a solução numérica para o dimensionamento tem sua precisão verificada. Diversas tabelas foram desenvolvidas para o dimensionamento de pilares esbeltos com secão transversal retangular e armadura simétrica. Todo o estudo é restrito ao caso de flexo-compressão normal.
Resumo:
O objetivo desta dissertação é a paralelização e a avaliação do desempenho de alguns métodos de resolução de sistemas lineares esparsos. O DECK foi utilizado para implementação dos métodos em um cluster de PCs. A presente pesquisa é motivada pela vasta utilização de Sistemas de Equações Lineares em várias áreas científicas, especialmente, na modelagem de fenômenos físicos através de Equações Diferenciais Parciais (EDPs). Nessa área, têm sido desenvolvidas pesquisas pelo GMC-PAD – Grupo de Matemática da Computação e Processamento de Alto Desempenho da UFRGS, para as quais esse trabalho vem contribuindo. Outro fator de motivação para a realização dessa pesquisa é a disponibilidade de um cluster de PCs no Instituto de Informática e do ambiente de programação paralela DECK – Distributed Execution and Communication Kernel. O DECK possibilita a programação em ambientes paralelos com memória distribuída e/ou compartilhada. Ele está sendo desenvolvido pelo grupo de pesquisas GPPD – Grupo de Processamento Paralelo e Distribuído e com a paralelização dos métodos, nesse ambiente, objetiva-se também validar seu funcionamento e avaliar seu potencial e seu desempenho. Os sistemas lineares originados pela discretização de EDPs têm, em geral, como características a esparsidade e a numerosa quantidade de incógnitas. Devido ao porte dos sistemas, para a resolução é necessária grande quantidade de memória e velocidade de processamento, característicos de computações de alto desempenho. Dois métodos de resolução foram estudados e paralelizados, um da classe dos métodos diretos, o Algoritmo de Thomas e outro da classe dos iterativos, o Gradiente Conjugado. A forma de paralelizar um método é completamente diferente do outro. Isso porque o método iterativo é formado por operações básicas de álgebra linear, e o método direto é formado por operações elementares entre linhas e colunas da matriz dos coeficientes do sistema linear. Isso permitiu a investigação e experimentação de formas distintas de paralelismo. Do método do Gradiente Conjugado, foram feitas a versão sem précondicionamento e versões pré-condicionadas com o pré-condicionador Diagonal e com o pré-condicionador Polinomial. Do Algoritmo de Thomas, devido a sua formulação, somente a versão básica foi feita. Após a paralelização dos métodos de resolução, avaliou-se o desempenho dos algoritmos paralelos no cluster, através da realização de medidas do tempo de execução e foram calculados o speedup e a eficiência. As medidas empíricas foram realizadas com variações na ordem dos sistemas resolvidos e no número de nodos utilizados do cluster. Essa avaliação também envolveu a comparação entre as complexidades dos algoritmos seqüenciais e a complexidade dos algoritmos paralelos dos métodos. Esta pesquisa demonstra o desempenho de métodos de resolução de sistemas lineares esparsos em um ambiente de alto desempenho, bem como as potencialidades do DECK. Aplicações que envolvam a resolução desses sistemas podem ser realizadas no cluster, a partir do que já foi desenvolvido, bem como, a investigação de précondicionadores, comparação do desempenho com outros métodos de resolução e paralelização dos métodos com outras ferramentas possibilitando uma melhor avaliação do DECK.
Resumo:
Neste trabalho são desenvolvidos métodos numéricos para inversão da transformada de Laplace, fazendo-se uso de polinômios trigonométricos e de Laguerre. Sua utilização é ilustrada num problema de fronteira móvel da área de engenharia nuclear, através do algoritmo computacional ALG-619. Uma revisão dos aspectos analíticos básicos da transformada de Laplace e sua utilização na resolução de equações diferenciais parciais é apresentada de maneira suscinta.
Resumo:
Os algoritmos baseados no paradigma Simulated Annealing e suas variações são atualmente usados de forma ampla na resolução de problemas de otimização de larga escala. Esta popularidade é resultado da estrutura extremamente simples e aparentemente universal dos algoritmos, da aplicabilidade geral e da habilidade de fornecer soluções bastante próximas da ótima. No início da década de 80, Kirkpatrick e outros apresentaram uma proposta de utilização dos conceitos de annealing (resfriamento lento e controlado de sólidos) em otimização combinatória. Esta proposta considera a forte analogia entre o processo físico de annealing e a resolução de problemas grandes de otimização combinatória. Simulated Annealing (SA) é um denominação genérica para os algoritmos desenvolvidos com base nesta proposta. Estes algoritmos combinam técnicas de busca local e de randomização. O objetivo do presente trabalho é proporcionar um entendimento das características do Simulated Annealing e facilitar o desenvolvimento de algoritmos com estas características. Assim, é apresentado como Simulated Annealing e suas variações estão sendo utilizados na resolução de problemas de otimização combinatória, proposta uma formalização através de um método de desenvolvimento de algoritmos e analisados aspectos de complexidade. O método de desenvolvimento especifica um programa abstrato para um algoritmo Simulated Annealing seqüencial, identifica funções e predicados que constituem os procedimentos deste programa abstrato e estabelece axiomas que permitem a visualização das propriedades que estes procedimentos devem satisfazer. A complexidade do Simulated Annealing é analisada a partir do programa abstrato desenvolvido e de seus principais procedimentos, permitindo o estabelecimento de uma equação genérica para a complexidade. Esta equação genérica é aplicável aos algoritmos desenvolvidos com base no método proposto. Uma prova de correção é apresentada para o programa abstrato e um código exemplo é analisado com relação aos axiomas estabelecidos. O estabelecimento de axiomas tem como propósito definir uma semântica para o algoritmo, o que permite a um desenvolvedor analisar a correção do código especificado para um algoritmo levando em consideração estes axiomas. O trabalho foi realizado a partir de um estudo introdutório de otimização combinatória, de técnicas de resolução de problemas, de um levantamento histórico do uso do Simulated Annealing, das variações em torno do modelo e de embasamentos matemáticos documentados. Isto permitiu identificar as características essenciais dos algoritmos baseados no paradigma, analisar os aspectos relacionados com estas características, como as diferentes formas de realizar uma prescrição de resfriamento e percorrer um espaço de soluções, e construir a fundamentação teórica genérica proposta.
Resumo:
O modelo de objetos apresenta-se como um modelo promissor para o desenvolvimento de software tolerante a falhas em virtude de características inerentes ao próprio modelo de objetos, tais como abstração de dados, encapsulamento, herança e reutilização de objetos (componentes). O uso de técnicas orientadas a objetos facilita o controle da complexidade do sistema porque promove uma melhor estruturação de seus componentes e também permite que componentes já validados sejam reutilizados [LIS96]. Técnicas básicas para tolerância a falhas em software baseiam-se na diversidade de projeto e de implementação de componentes considerados críticos. Os componentes diversitários são gerenciados através de alguma técnica que tenha por objetivo assegurar o fornecimento do serviço solicitado, como, por exemplo, a conhecida técnica de blocos de recuperação. Reflexão Computacional é a capacidade que um sistema tem de fazer computações para se auto analisar. Ela é obtida quando o programa pára sua execução por um período de tempo para fazer computações sobre si próprio; analisa seu estado, se o processamento está correto, se pode prosseguir com a execução e atingir o objetivo satisfatoriamente; se não precisa mudar de estratégia ou algoritmo de execução, fazendo, ainda, processamentos necessários para o sucesso da execução. Um sistema de programação distribuída consiste basicamente em vários aplicativos executados em diferentes computadores, os quais realizam troca de mensagens para solucionar um problema comum. A comunicação entre os computadores é realizada através da rede que os interliga. As Redes que controlam sistemas críticos são normalmente de pequena escala pois redes de grandes dimensões podem apresentar atrasos e baixa confiabilidade. Portanto, a abordagem aqui proposta consiste em utilizar, em um ambiente distribuído, uma arquitetura reflexiva aliada a técnicas do domínio da tolerância a falhas para promover a separação entre as atividades de controle, salvamento, recuperação, distribuição e validação de componentes e as funcionalidades executadas pelo próprio componente, a fim de que falhas não venham a prejudicar a disponibilidade, confiabilidade e clareza de determinadas computações. A proposta apóia-se num estudo de caso, implementado na linguagem de programação Java, com seus protocolos de reflexão computacional e de comunicação.