1000 resultados para Algoritmos recursivos
Resumo:
objetivo de minimizar el retraso total en un ambiente con preparaciones quedependen de la secuencia. Se comparan los resultados obtenidos mediante laaplicación de los procedimientos de exploración de entornos AED, ANED,Recocido Simulado, Algoritmos Genéticos, Búsqueda Tabú y GRASP alproblema planteado. Los resultados sugieren que la Búsqueda Tabú es unatécnica viable de solución que puede proporcionar buenas soluciones cuandose considera el objetivo retraso total con tiempos de preparación dependientesde la secuencia.
Resumo:
En este trabajo se evalúan algoritmos heurísticos de exploración de entornos(AED, ANED, SA, TS, GA y GRASP) en la programación de pedidos en unamáquina de la vida real, con el objetivo de minimizar la suma de retrasos . Elcaso estudiado se diferencia de los problemas convencionales en que lostiempos de preparación de las operaciones están separados de los tiempos deprocesamiento y son dependientes de la secuencia. Los resultadoscomputacionales revelan que la Búsqueda Tabú funciona mejor que los otrosalgoritmos aplicados.
Resumo:
DDM is a framework that combines intelligent agents and artificial intelligence traditional algorithms such as classifiers. The central idea of this project is to create a multi-agent system that allows to compare different views into a single one.
Resumo:
Els sistemes híbrids de navegació integren mesures de posició i velocitat provinents de satèl·lits (GPS) i d’unitats de mesura inercials (IMU).Les dades d’aquests sensors s’han de fusionar i suavitzar, i per a aquest propòsit existeixen diversos algorismes de filtratge, que tracten les dades conjuntament o per separat. En aquest treball s’han codificat en Matlab els algorismes dels filtres de Kalman i IMM, i s’han comparat les seves prestacions en diverses trajectòries d’un vehicle. S’han avaluat quantitativament els errors dels dos filtres, i s’han sintonitzat els seus paràmetres per a minimitzar aquests errors. Amb una correcta sintonia dels filtres, s’ha comprovat que el filtre IMM és superior al filtre de Kalman, tant per maniobres brusques com per maniobres suaus, malgrat que la complexitat i el temps de càlcul requerit són majors.
Resumo:
En este estudio se examina un modelo de relaciones estructurales entre las dimensiones del síndrome de quemarse en el trabajo, y estrategias de afrontamiento orientadas al control y a la ausencia de control sobre los estresores laborales y las emociones individuales. Se plantea la hipótesis de que si la realización personal y el agotamiento emocional se dan de un modo simultáneo, la realización personal tendrá un mayor impacto sobre el cansancio emocional. Los resultados obtenidos se discuten con relación al uso de modelos no recursivos, los efectos de la controlabilidad que implican distintas estrategias de afrontamiento sobre las dimensiones del síndrome de quemarse, e implicaciones para la prevención del estrés en el trabajo.
Resumo:
Este trabalho propõe um método de projeto de embalagem para produtos hortícolas, buscando uma otimização integrada dos aspectos geométricos, estruturais e térmicos, ligados à facilitação do resfriamento e armazenamento refrigerado. Para o dimensionamento e otimização estrutural, foi utilizado o Método dos Elementos Finitos implementado pelo programa ANSYS, obtendo-se oito modelos virtuais de embalagens, com 10% e 14% de área efetiva de aberturas e geometria quadrada, retangular e circular. Para o desenvolvimento dos experimentos, que avaliaram a relação da área de aberturas com o tempo de sete-oitavos de resfriamento, foram construídos protótipos de tábuas de madeira (Pinnus elliotti) de reflorestamento. Nas embalagens, foram acondicionados aproximadamente 13 kg de banana variedade Nanica (Musa cavendishii, cultivar nanica), resfriada num túnel de ar forçado (vazão de ar de 0,32 m³ s-1, temperatura de 8,0±1,2ºC e umidade relativa de 84,5±2,6%). O tempo de resfriamento também foi comparado com aquele obtido quando a mesma quantidade de frutas foi resfriada em embalagens de papelão (2,5% de área efetiva de abertura) e madeira (18% de área efetiva de abertura). Os resultados demonstraram que, entre os protótipos propostos, não houve diferença significativa no tempo de resfriamento dos frutos acondicionados nas embalagens desenvolvidas, sendo o tempo médio de resfriamento de 40,71±2,81 min. Na comparação com as embalagens de papelão e madeira, houve diferenças significativas, sendo que as embalagens comerciais tiveram tempos de resfriamento de 1,25 e 2 vezes maiores. Concluiu-se que a simulação estrutural computacional, aliada a algoritmos de otimização, além de procedimentos experimentais ligados à cadeia do frio, são recursos promissores no auxílio de projetos para embalagens de transporte de produtos hortícolas.
Resumo:
Zonal management in vineyards requires the prior delineation of stable yield zones within the parcel. Among the different methodologies used for zone delineation, cluster analysis of yield data from several years is one of the possibilities cited in scientific literature. However, there exist reasonable doubts concerning the cluster algorithm to be used and the number of zones that have to be delineated within a field. In this paper two different cluster algorithms have been compared (k-means and fuzzy c-means) using the grape yield data corresponding to three successive years (2002, 2003 and 2004), for a ‘Pinot Noir’ vineyard parcel. Final choice of the most recommendable algorithm has been linked to obtaining a stable pattern of spatial yield distribution and to allowing for the delineation of compact and average sized areas. The general recommendation is to use reclassified maps of two clusters or yield classes (low yield zone and high yield zone) and, consequently, the site-specific vineyard management should be based on the prior delineation of just two different zones or sub-parcels. The two tested algorithms are good options for this purpose. However, the fuzzy c-means algorithm allows for a better zoning of the parcel, forming more compact areas and with more equilibrated zonal differences over time.
Resumo:
Los objetivos de este trabajo fueron estudiar el dimorfismo sexual de la clavícula, teniendo en cuenta su asimetría direccional, y aportar algoritmos útiles para el diagnóstico sexual. El material utilizado fueron 77 individuos adultos actuales de origen madrileño (45 hombres y 32 mujeres) de edades comprendidas entre 20 y 92 años pertenecientes a la colección de la Universidad Complutense de Madrid. Se tomaron 2 tipos de medidas, unas directas sobre el hueso (longitud máxima, perímetro en la mitad, anchura de la epífisis acromial y esternal) y otras indirectas sobre imágenes fotográficas (ángulo y sagita). Después de comprobar la constancia de las mediciones mediante una muestra de época medieval originarias de Palencia, se analizó el dimorfismo sexual en las clavículas izquierdas y derechas así como la asimetría bilateral en cada serie sexual, mediante la t de Student. Posteriormente, se aplicó un análisis de componentes principales (ACP) para evaluar el grado de implicación de las variables en el dimorfismo sexual. Por último, se llevó a cabo un análisis discriminante para cada lado clavicular. Los resultados mostraron que: 1) los hombres presentan valores medios superiores a las mujeres en todas las variables excepto en el ángulo; 2) los valores de la anchura acromial y esternal de la serie masculina son mayores en la clavícula derecha que en la izquierda; y 3) el dimorfismo sexual viene dado principalmente por las variables relacionadas con las dimensiones claviculares. Finalmente, se obtuvieron dos funciones, una para clavículas izquierdas y otra para las derechas, basadas en la longitud de la clavícula y el perímetro en la mitad, las cuales presentan una fiabilidad mayor del 92 %.
Resumo:
Aquest projecte està emmarcat dins l'àrea de la seguretat informàtica i pretén desenvolupar una aplicació que permeti la gestió segura de les contrasenyes. Però no només s'ha de centrar en aquesta gestió, sinó que es pretén dotar a l'aplicació de la seguretat necessària, mitjançant algoritmes criptogràfics, per tal que aquestes dades no es puguin comprometre.
Resumo:
OBJETIVO: Utilizar o código PENELOPE e desenvolver geometrias onde estão presentes heterogeneidades para simular o comportamento do feixe de fótons nessas condições. MATERIAIS E MÉTODOS: Foram feitas simulações do comportamento da radiação ionizante para o caso homogêneo, apenas água, e para os casos heterogêneos, com diferentes materiais. Consideraram-se geometrias cúbicas para os fantomas e geometrias em forma de paralelepípedos para as heterogeneidades com a seguinte composição: tecido simulador de osso e pulmão, seguindo recomendações da International Commission on Radiological Protection, e titânio, alumínio e prata. Definiram-se, como parâmetros de entrada: a energia e o tipo de partícula da fonte, 6 MV de fótons; a distância fonte-superfície de 100 cm; e o campo de radiação de 10x 10 cm². RESULTADOS: Obtiveram-se curvas de percentual de dose em profundidade para todos os casos. Observou-se que em materiais com densidade eletrônica alta, como a prata, a dose absorvida é maior em relação à dose absorvida no fantoma homogêneo, enquanto no tecido simulador de pulmão a dose é menor. CONCLUSÃO: Os resultados obtidos demonstram a importância de se considerar heterogeneidades nos algoritmos dos sistemas de planejamento usados no cálculo da distribuição de dose nos pacientes, evitando-se sub ou superdosagem dos tecidos próximos às heterogeneidades.
Integrando ferramentas de auxílio ao diagnóstico no sistema de arquivamento e comunicação de imagens
Resumo:
OBJETIVO: Este artigo apresenta um modelo de integração de algoritmos de diagnóstico auxiliado por computador dentro do fluxo de trabalho dos sistemas de gerenciamento de imagens, desenvolvido com base em um conjunto de ferramentas computacionais de código aberto e uso livre chamado dcm4che2. MATERIAIS E MÉTODOS: O modelo de integração é composto por um servidor de processamento de imagens e por serviços de comunicação. O gerenciamento de dados segue o fluxo de trabalho definido pelo perfil de pós-processamento (PWF) do Integrating the Healthcare Enterprise (IHE) e utiliza a funcionalidade de captura secundária do DICOM. Uma aplicação para lesões difusas de pulmão foi utilizada para prova de conceito. RESULTADOS: O algoritmo de classificação de padrões apresentou acurácia de 78%, com base em um método de teste de validação cruzada. A integração possibilita a visualização das imagens processadas como uma nova série dentro do estudo original. CONCLUSÃO: O modelo de integração proposto baseiase em perfis do IHE e permite o estabelecimento de procedimentos padronizados. Os princípios utilizados para integração do fluxo de trabalho são aplicáveis para qualquer tarefa não interativa de pós-processamento de imagens.
Resumo:
Com o emprego de adesivos pode-se obter um grande número de produtos derivados da madeira. Para confecção industrial de produtos de madeira colada, normas reconhecidas internacionalmente exigem que a adesão da madeira seja testada segundo procedimentos padronizados e que nos resultados destes testes seja reportado, além da resistência das juntas, o porcentual de falha na madeira. Para avaliação da falha a norma ASTM D5266-99 recomenda o emprego de uma rede de quadrículas traçada sobre um material transparente. Contudo, esta avaliação, além de demandar muito tempo, ainda é realizada com muita subjetividade. A hipótese do presente trabalho é que se pode quantificar a falha na madeira com um sistema de visão artificial, tornando o procedimento mais rápido e menos sujeito à subjetividade. Foram testados dois tipos de algoritmos de limiarização automática em imagens adquiridas com digitalizadores de mesa. Concluiu-se que a falha na madeira pode ser quantificada por limiarização automática em substituição ao método convencional das quadrículas. Os algoritmos testados apresentaram erro médio absoluto menor que 3% em relação ao sistema convencional da rede quadriculada.
Resumo:
Os objetivos deste trabalho foram desenvolver e testar um algoritmo genético (AG) para a solução de problemas de gerenciamento florestal com restrições de integridade. O AG foi testado em quatro problemas, contendo entre 93 e 423 variáveis de decisão, sujeitos às restrições de singularidade, produção mínima e produção máxima, periodicamente. Todos os problemas tiveram como objetivo a maximização do valor presente líquido. O AG foi codificado em ambiente delphi 5.0 e os testes foram realizados em um microcomputador AMD K6II 500 MHZ, com memória RAM de 64 MB e disco rígido de 15GB. O desempenho do AG foi avaliado de acordo com as medidas de eficácia e eficiência. Os valores ou categorias dos parâmetros do AG foram testados e comparados quanto aos seus efeitos na eficácia do algoritmo. A seleção da melhor configuração de parâmetros foi feita com o teste L&O, a 1% de probabilidade, e as análises foram realizadas através de estatísticas descritivas. A melhor configuração de parâmetros propiciou ao AG eficácia média de 94,28%, valor mínimo de 90,01%, valor máximo de 98,48%, com coeficiente de variação de 2,08% do ótimo matemático, obtido pelo algoritmo exato branch and bound. Para o problema de maior porte, a eficiência do AG foi cinco vezes superior à eficiência do algoritmo exato branch and bound. O AG apresentou-se como uma abordagem bastante atrativa para solução de importantes problemas de gerenciamento florestal.
Resumo:
Objetivou-se, neste trabalho, propor uma sistemática para o estudo e interpretação da estabilidade dos métodos de análise de agrupamento, através de vários algoritmos de agrupamento em dados de vegetação. Utilizaram-se dados provenientes de levantamento na Mata da Silvicultura, da Universidade Federal de Viçosa ,em Viçosa, MG. Para a análise de agrupamento, foram estimadas as matrizes de distância de Mahalanobis com base nos dados originais e via reamostragem "bootstrap", bem como aplicados os métodos da ligação simples, ligação completa e médias das distâncias, do centróide, da mediana e do Ward. Para a detecção de associação entre os métodos, foi aplicado o teste Qui-Quadrado (chi2) a 1 e 5% de probabilidade. Para os diversos métodos de agrupamento foi obtida a correlação cofenética. Os resultados de associação dos métodos foram semelhantes, indicando, em princípio, que qualquer algoritmo de agrupamento estudado está estabilizado e existem, de fato, grupos entre os indivíduos observados. No entanto, verificou-se que os métodos são coincidentes, exceto os métodos do centróide e Ward e os métodos do centróide e mediana, em comparação com o de Ward, respectivamente, com base nas matrizes de Mahalanobis a partir dos dados originais e "bootstrap". A sistemática proposta é promissora para o estudo e interpretação da estabilidade dos métodos de análise de agrupamento em dados de vegetação.
Resumo:
Este trabalho teve como objetivo avaliar uma estratégia utilizada para geração de alternativas de manejo na formulação e solução de problemas de planejamento florestal com restrições de recobrimento. O problema de planejamento florestal foi formulado via modelo I e modelo II, assim denominados por Johnson E Scheurman (1977), resultando em problemas de programação linear inteira com 63 e 42 alternativas de manejo, respectivamente. Conforme esperado, no problema formulado via modelo I não houve violação das restrições de recobrimento, enquanto no problema formulado via modelo II algumas unidades de manejo foram fracionadas, fato já esperado, uma vez que essa formulação não assegura a integridade das unidades de manejo. Na formulação via modelo II, para assegurar a integridade das unidades de manejo foi necessário reformular o problema como um problema de programação não-linear inteira, problema esse de solução ainda mais complexa do que os de programação linear inteira. As soluções eficientes dos problemas de programação não-linear inteira esbarram nas limitações de eficiências dos principais algoritmos de solução exata e na carência de aplicações dos algoritmos aproximativos na solução desse tipo de problema, a exemplo das metaeurísticas simulated annealing, busca tabu e algoritmos genéticos, tornando-se, portanto, um atrativo para pesquisas nessa área.