904 resultados para complessità computazionale primalità problemi polinomiali algoritmo aks


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho contemplamos o emprego de detectores de voz como uma etapa de pré- processamento de uma técnica de separação cega de sinais implementada no domínio do tempo, que emprega estatísticas de segunda ordem para a separação de misturas convolutivas e determinadas. Seu algoritmo foi adaptado para realizar a separação tanto em banda cheia quanto em sub-bandas, considerando a presença e a ausência de instantes de silêncio em misturas de sinais de voz. A ideia principal consiste em detectar trechos das misturas que contenham atividade de voz, evitando que o algoritmo de separação seja acionado na ausência de voz, promovendo ganho de desempenho e redução do custo computacional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A extração de regras de associação (ARM - Association Rule Mining) de dados quantitativos tem sido pesquisa de grande interesse na área de mineração de dados. Com o crescente aumento das bases de dados, há um grande investimento na área de pesquisa na criação de algoritmos para melhorar o desempenho relacionado a quantidade de regras, sua relevância e a performance computacional. O algoritmo APRIORI, tradicionalmente usado na extração de regras de associação, foi criado originalmente para trabalhar com atributos categóricos. Geralmente, para usá-lo com atributos contínuos, ou quantitativos, é necessário transformar os atributos contínuos, discretizando-os e, portanto, criando categorias a partir dos intervalos discretos. Os métodos mais tradicionais de discretização produzem intervalos com fronteiras sharp, que podem subestimar ou superestimar elementos próximos dos limites das partições, e portanto levar a uma representação imprecisa de semântica. Uma maneira de tratar este problema é criar partições soft, com limites suavizados. Neste trabalho é utilizada uma partição fuzzy das variáveis contínuas, que baseia-se na teoria dos conjuntos fuzzy e transforma os atributos quantitativos em partições de termos linguísticos. Os algoritmos de mineração de regras de associação fuzzy (FARM - Fuzzy Association Rule Mining) trabalham com este princípio e, neste trabalho, o algoritmo FUZZYAPRIORI, que pertence a esta categoria, é utilizado. As regras extraídas são expressas em termos linguísticos, o que é mais natural e interpretável pelo raciocício humano. Os algoritmos APRIORI tradicional e FUZZYAPRIORI são comparado, através de classificadores associativos, baseados em regras extraídas por estes algoritmos. Estes classificadores foram aplicados em uma base de dados relativa a registros de conexões TCP/IP que destina-se à criação de um Sistema de Detecção de Intrusos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Inteligência de Enxame foi proposta a partir da observação do comportamento social de espécies de insetos, pássaros e peixes. A ideia central deste comportamento coletivo é executar uma tarefa complexa decompondo-a em tarefas simples, que são facilmente executadas pelos indivíduos do enxame. A realização coordenada destas tarefas simples, respeitando uma proporção pré-definida de execução, permite a realização da tarefa complexa. O problema de alocação de tarefas surge da necessidade de alocar as tarefas aos indivíduos de modo coordenado, permitindo o gerenciamento do enxame. A alocação de tarefas é um processo dinâmico pois precisa ser continuamente ajustado em resposta a alterações no ambiente, na configuração do enxame e/ou no desempenho do mesmo. A robótica de enxame surge deste contexto de cooperação coletiva, ampliada à robôs reais. Nesta abordagem, problemas complexos são resolvidos pela realização de tarefas complexas por enxames de robôs simples, com capacidade de processamento e comunicação limitada. Objetivando obter flexibilidade e confiabilidade, a alocação deve emergir como resultado de um processo distribuído. Com a descentralização do problema e o aumento do número de robôs no enxame, o processo de alocação adquire uma elevada complexidade. Desta forma, o problema de alocação de tarefas pode ser caracterizado como um processo de otimização que aloca as tarefas aos robôs, de modo que a proporção desejada seja atendida no momento em que o processo de otimização encontre a solução desejada. Nesta dissertação, são propostos dois algoritmos que seguem abordagens distintas ao problema de alocação dinâmica de tarefas, sendo uma local e a outra global. O algoritmo para alocação dinâmica de tarefas com abordagem local (ADTL) atualiza a alocação de tarefa de cada robô a partir de uma avaliação determinística do conhecimento atual que este possui sobre as tarefas alocadas aos demais robôs do enxame. O algoritmo para alocação dinâmica de tarefas com abordagem global (ADTG) atualiza a alocação de tarefas do enxame com base no algoritmo de otimização PSO (Particle swarm optimization). No ADTG, cada robô possui uma possível solução para a alocação do enxame que é continuamente atualizada através da troca de informação entre os robôs. As alocações são avaliadas quanto a sua aptidão em atender à proporção-objetivo. Quando é identificada a alocação de maior aptidão no enxame, todos os robôs do enxame são alocados para as tarefas definidas por esta alocação. Os algoritmos propostos foram implementados em enxames com diferentes arranjos de robôs reais demonstrando sua eficiência e eficácia, atestados pelos resultados obtidos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A renderização de volume direta tornou-se uma técnica popular para visualização volumétrica de dados extraídos de fontes como simulações científicas, funções analíticas, scanners médicos, entre outras. Algoritmos de renderização de volume, como o raycasting, produzem imagens de alta qualidade. O seu uso, contudo, é limitado devido à alta demanda de processamento computacional e o alto uso de memória. Nesse trabalho, propomos uma nova implementação do algoritmo de raycasting que aproveita a arquitetura altamente paralela do processador Cell Broadband Engine, com seus 9 núcleos heterogêneos, que permitem renderização eficiente em malhas irregulares de dados. O poder computacional do processador Cell BE demanda um modelo de programação diferente. Aplicações precisam ser reescritas para explorar o potencial completo do processador Cell, que requer o uso de multithreading e código vetorizado. Em nossa abordagem, enfrentamos esse problema distribuindo a computação de cada raio incidente nas faces visíveis do volume entre os núcleos do processador, e vetorizando as operações da integral de iluminação em cada um. Os resultados experimentais mostram que podemos obter bons speedups reduzindo o tempo total de renderização de forma significativa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os SIG Sistemas de Informação Geográfica vêm sendo cada vez mais estudados como ferramentas facilitadoras de análises territoriais com o objetivo de subsidiar a gestão ambiental. A Ilha Grande, que pertence ao município de Angra dos Reis, localiza-se na baía de Ilha Grande no sul do estado do Rio de Janeiro e constitui-se no recorte espacial de análise. Apresenta uma dinâmica ambiental complexa que se sobrepõem principalmente aos usos de proteção ambiental e de atividade turística em uma porção do território em que as normatizações legais são difíceis de serem aplicadas, pois são reflexos de interesses que se manifestam em três esferas do poder a municipal, a estadual e a federal. O objetivo principal desta pesquisa é a realização do processamento digital de imagem para auxiliar a gestão territorial da Ilha Grande. Em foco, a estrada Abraão - Dois Rios, que liga Abraão (local de desembarque dos turistas, principal núcleo da Ilha) a Dois Rios (local de visitação por estudantes e pesquisadores, núcleo que abrigava o presídio, atualmente abriga sede do centro de pesquisa e museu da Universidade do Estado do Rio de Janeiro), ambos protegidos por diferentes categorias de unidades de conservação. A metodologia fundamenta-se no processamento digital de imagem através da segmentação e da classificação supervisionada por pixel e por região. O processamento deu-se a partir da segmentação (divisão de uma imagem digital em múltiplas regiões ou objetos, para simplificar e/ou mudar a representação de uma imagem) e dos processos de classificações de imagem, com a utilização de classificação por pixel e classificação por regiões (com a utilização do algoritmo Bhattacharya). As segmentações e classificações foram processadas no sistema computacional SPRING versão 5.1.7 e têm como objetivo auxiliar na análise de uso da Terra e projetar cenários a partir da identificação dos pontos focais de fragilidade encontrados ao longo da estrada Abraão-Dois Rios, propensos a ocorrências de movimentos de massa e que potencializam o efeito de borda da floresta e os impactos ambientais. A metodologia utilizada baseou-se em análise de campo e comparações de tecnologias de classificação de imagens. Essa estrada eixo de ligação entre os dois núcleos tem significativa importância na história da Ilha, nela circulam veículos, pesados e leves, de serviço, pedestres e turistas. Como resultados da presente foram gerados os mapas de classificação por pixel, os mapas de classificação por região, o mapa fuzzy com a intersecção dos mapas de classificação supervisionada por região e os mapas com os locais coletados em campo onde são verificadas ocorrências de movimentos de massa nas imagens ALOS, 2000, IKONOS, 2003 e ortofotografias, 2006. Esses mapas buscam servir de apoio à tomada de decisões por parte dos órgãos locais responsáveis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Métodos de otimização que utilizam condições de otimalidade de primeira e/ou segunda ordem são conhecidos por serem eficientes. Comumente, esses métodos iterativos são desenvolvidos e analisados à luz da análise matemática do espaço euclidiano n-dimensional, cuja natureza é de caráter local. Consequentemente, esses métodos levam a algoritmos iterativos que executam apenas as buscas locais. Assim, a aplicação de tais algoritmos para o cálculo de minimizadores globais de uma função não linear,especialmente não-convexas e multimodais, depende fortemente da localização dos pontos de partida. O método de Otimização Global Topográfico é um algoritmo de agrupamento, que utiliza uma abordagem baseada em conceitos elementares da teoria dos grafos, a fim de gerar bons pontos de partida para os métodos de busca local, a partir de pontos distribuídos de modo uniforme no interior da região viável. Este trabalho tem dois objetivos. O primeiro é realizar uma nova abordagem sobre método de Otimização Global Topográfica, onde, pela primeira vez, seus fundamentos são formalmente descritos e suas propriedades básicas são matematicamente comprovadas. Neste contexto, propõe-se uma fórmula semi-empírica para calcular o parâmetro chave deste algoritmo de agrupamento, e, usando um método robusto e eficiente de direções viáveis por pontos-interiores, estendemos o uso do método de Otimização Global Topográfica a problemas com restrições de desigualdade. O segundo objetivo é a aplicação deste método para a análise de estabilidade de fase em misturas termodinâmicas,o qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. A solução deste problema de otimização global é necessária para o cálculo do equilíbrio de fases, que é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Além disso, afim de ter uma avaliação inicial do potencial dessa técnica, primeiro vamos resolver 70 problemas testes, e então comparar o desempenho do método proposto aqui com o solver MIDACO, um poderoso software recentemente introduzido no campo da otimização global.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O desenvolvimento de software livre de Jacobiana para a resolução de problemas formulados por equações diferenciais parciais não-lineares é de interesse crescente para simular processos práticos de engenharia. Este trabalho utiliza o chamado algoritmo espectral livre de derivada para equações não-lineares na simulação de fluxos em meios porosos. O modelo aqui considerado é aquele empregado para descrever o deslocamento do fluido compressível miscível em meios porosos com fontes e sumidouros, onde a densidade da mistura de fluidos varia exponencialmente com a pressão. O algoritmo espectral utilizado é um método moderno para a solução de sistemas não-lineares de grande porte, o que não resolve sistemas lineares, nem usa qualquer informação explícita associados com a matriz Jacobiana, sendo uma abordagem livre de Jacobiana. Problemas bidimensionais são apresentados, juntamente com os resultados numéricos comparando o algoritmo espectral com um método de Newton inexato livre de Jacobiana. Os resultados deste trabalho mostram que este algoritmo espectral moderno é um método confiável e eficiente para a simulação de escoamentos compressíveis em meios porosos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desta tese foi identificar e caracterizar áreas com altas taxas de mortalidade por doenças do aparelho circulatório (DAC) e seus dois principais subgrupos de causas: as doenças isquêmicas do coração (DIC) e as doenças cerebrovasculares (DCV), entre os anos de 2008 e 2012 na área de influência do complexo petroquímico do estado do Rio de Janeiro COMPERJ, por meio de métodos estatísticos e sistemas de informações geográficas (SIG). Os resultados da investigação são apresentados na forma de dois manuscritos. O primeiro objetivou descrever o perfil da distribuição espacial da mortalidade por (DAC), caracterizar e predizer territórios com maior risco de morte por esta causa, com base em classificação das unidades espaciais por indicador de qualidade urbana (IQUmod). A análise multivariada foi realizada por meio do método conhecido como árvore de decisão e regressão, baseado em algoritmo CART para a obtenção do modelo preditivo para UVLs com diferentes riscos de mortalidade por DAC. O modelo desenvolvido foi capaz de discriminar sete conjuntos de UVLs, com diferentes taxas médias de mortalidades. O subconjunto que apresenta a maior taxa média (1037/100 mil hab.) apresenta 3 UVLs com mais de 75% de seus domicílios com abastecimento de água inadequado e valor de IQUmod acima de 0.6. Conclui-se que na área de influência do COMPERJ existem áreas onde a mortalidade por DAC se apresenta com maior magnitude e que a identificação dessas áreas pode auxiliar na elaboração, diagnóstico, prevenção e planejamento de ações de saúde direcionadas aos grupos mais susceptíveis. O segundo manuscrito teve por objetivo descrever o perfil da distribuição espacial da mortalidade por DIC e DCV em relação ao contexto socioambiental segundo áreas geográficas. O modelo de regressão linear de Poisson com parâmetro de estimação via quasi-verossimilhança foi usado para verificar associação entre as variáveis. Foram identificados como fatores de risco para mortalidade por DIC e DCV a variável relativa a melhor renda e maior distância entre domicílios e unidades de saúde; a proporção de domicílios em ruas pavimentadas aparece como fator de proteção. A distribuição espacial e as associações encontradas entre os desfechos e preditores sugerem que as populações residentes em localidades mais afastadas dos centros urbanos apresentam maiores taxas de mortalidade por DIC e DCV e que isto pode estar relacionado a contextos rurais de localização das residências e a distância geográfica destas populações aos serviços de saúde. Aponta-se para a necessidade de desenvolvimento de ações que propiciem maior amplitude no atendimento em saúde, no intuito da redução de eventos cardiovasculares mórbidos incidentes naquelas populações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma simulação numérica que leva em conta os efeitos de estratificação e mistura escalar (como a temperatura, salinidade ou substância solúvel em água) é necessária para estudar e prever os impactos ambientais que um reservatório de usina hidrelétrica pode produzir. Este trabalho sugere uma metodologia para o estudo de escoamentos ambientais, principalmente aqueles em que o conhecimento da interação entre a estratificação e mistura pode dar noções importantes dos fenômenos que ocorrem. Por esta razão, ferramentas de simulação numérica 3D de escoamento ambiental são desenvolvidas. Um gerador de malha de tetraedros do reservatório e o modelo de turbulência algébrico baseado no número de Richardson são as principais ferramentas desenvolvidas. A principal dificuldade na geração de uma malha de tetraedros de um reservatório é a distribuição não uniforme dos pontos relacionada com a relação desproporcional entre as escalas horizontais e verticais do reservatório. Neste tipo de distribuição de pontos, o algoritmo convencional de geração de malha de tetraedros pode tornar-se instável. Por esta razão, um gerador de malha não estruturada de tetraedros é desenvolvido e a metodologia utilizada para obter elementos conformes é descrita. A geração de malha superficial de triângulos utilizando a triangulação Delaunay e a construção do tetraedros a partir da malha triangular são os principais passos para o gerador de malha. A simulação hidrodinâmica com o modelo de turbulência fornece uma ferramenta útil e computacionalmente viável para fins de engenharia. Além disso, o modelo de turbulência baseado no número de Richardson leva em conta os efeitos da interação entre turbulência e estratificação. O modelo algébrico é o mais simples entre os diversos modelos de turbulência. Mas, fornece resultados realistas com o ajuste de uma pequena quantidade de parâmetros. São incorporados os modelos de viscosidade/difusividade turbulenta para escoamento estratificado. Na aproximação das equações médias de Reynolds e transporte de escalar é utilizando o Método dos Elementos Finitos. Os termos convectivos são aproximados utilizando o método semi-Lagrangeano, e a aproximação espacial é baseada no método de Galerkin. Os resultados computacionais são comparados com os resultados disponíveis na literatura. E, finalmente, a simulação de escoamento em um braço de reservatório é apresentada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As pontes rodoviárias metálicas e mistas (aço-concreto) são submetidas a um grande número de carregamentos repetitivos de diferentes magnitudes, ao longo do tempo. Estas ações dinâmicas podem causar a nucleação de fraturas ou mesmo a propagação destas sobre o sistema estrutural. A depender da magnitude, estes efeitos podem comprometer o sistema estrutural e a sua confiabilidade, além de reduzir a vida útil das pontes. Assim sendo, neste trabalho de pesquisa foi investigada a resposta dinâmica de uma ponte mista (aço-concreto), simplesmente apoiada, com vão de 40,0 m, submetida ao tráfego de veículos sobre a superfície irregular do pavimento. Para tal um modelo numérico representativo do sistema estrutural foi desenvolvido com base no emprego do programa ANSYS, por meio do uso de técnicas usuais de discretização, via método dos elementos finitos. Um estudo paramétrico foi desenvolvido para identificar, de forma qualitativa e quantitativa, o efeito das irregularidades do pavimento sobre o comportamento dinâmico da ponte mista investigada. Em seguida, a verificação do projeto à fadiga do sistema misto foi realizada, com base no emprego do algoritmo de contagem de ciclos Rainflow e em curvas S-N associadas às principais normas de projeto sobre o tema. As conclusões deste trabalho de pesquisa alertam aos engenheiros estruturais para a possibilidade concreta acerca do aumento do dano por fadiga, relacionado às ações dinâmicas de veículos trafegando sobre o tabuleiro de pontes em aço e mistas (aço-concreto).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta o desenvolvimento de um sistema de tomada de decisão que propõe uma metodologia inteligente, de tal maneira a efetuar a melhor alocação possível de um grupo de usuários a um grupo de recursos em um espaço geográfico. Tal metodologia se baseou na lógica fuzzy e ao longo da dissertação foram feitas comparações com outras técnicas, como o Algoritmo Ingênuo e a Busca Exaustiva. O conjunto de dados que foi adotado como o escopo desse trabalho foi a matrícula de alunos do município de Nova Iguaçu.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diversas das possíveis aplicações da robótica de enxame demandam que cada robô seja capaz de estimar a sua posição. A informação de localização dos robôs é necessária, por exemplo, para que cada elemento do enxame possa se posicionar dentro de uma formatura de robôs pré-definida. Da mesma forma, quando os robôs atuam como sensores móveis, a informação de posição é necessária para que seja possível identificar o local dos eventos medidos. Em virtude do tamanho, custo e energia dos dispositivos, bem como limitações impostas pelo ambiente de operação, a solução mais evidente, i.e. utilizar um Sistema de Posicionamento Global (GPS), torna-se muitas vezes inviável. O método proposto neste trabalho permite que as posições absolutas de um conjunto de nós desconhecidos sejam estimadas, com base nas coordenadas de um conjunto de nós de referência e nas medidas de distância tomadas entre os nós da rede. A solução é obtida por meio de uma estratégia de processamento distribuído, onde cada nó desconhecido estima sua própria posição e ajuda os seus vizinhos a calcular as suas respectivas coordenadas. A solução conta com um novo método denominado Multi-hop Collaborative Min-Max Localization (MCMM), ora proposto com o objetivo de melhorar a qualidade da posição inicial dos nós desconhecidos em caso de falhas durante o reconhecimento dos nós de referência. O refinamento das posições é feito com base nos algoritmos de busca por retrocesso (BSA) e de otimização por enxame de partículas (PSO), cujos desempenhos são comparados. Para compor a função objetivo, é introduzido um novo método para o cálculo do fator de confiança dos nós da rede, o Fator de Confiança pela Área Min-Max (MMA-CF), o qual é comparado com o Fator de Confiança por Saltos às Referências (HTA-CF), previamente existente. Com base no método de localização proposto, foram desenvolvidos quatro algoritmos, os quais são avaliados por meio de simulações realizadas no MATLABr e experimentos conduzidos em enxames de robôs do tipo Kilobot. O desempenho dos algoritmos é avaliado em problemas com diferentes topologias, quantidades de nós e proporção de nós de referência. O desempenho dos algoritmos é também comparado com o de outros algoritmos de localização, tendo apresentado resultados 40% a 51% melhores. Os resultados das simulações e dos experimentos demonstram a eficácia do método proposto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho foi estabelecer um modelo empregando-se ferramentas de regressão multivariada para a previsão do teor em ésteres metílicos e, simultaneamente, de propriedades físico-químicas de misturas de óleo de soja e biodiesel de soja. O modelo foi proposto a partir da correlação das propriedades de interesse com os espectros de reflectância total atenuada no infravermelho médio das misturas. Para a determinação dos teores de ésteres metílicos foi utilizada a cromatografia líquida de alta eficiência (HPLC), podendo esta ser uma técnica alternativa aos método de referência que utilizam a cromatografia em fase gasosa (EN 14103 e EN 14105). As propriedades físico-químicas selecionadas foram índice de refração, massa específica e viscosidade. Para o estudo, foram preparadas 11 misturas com diferentes proporções de biodiesel de soja e de óleo de soja (0-100 % em massa de biodiesel de soja), em quintuplicata, totalizando 55 amostras. A região do infravermelho estudada foi a faixa de 3801 a 650 cm-1. Os espectros foram submetidos aos pré-tratamentos de correção de sinal multiplicativo (MSC) e, em seguida, à centralização na média (MC). As propriedades de interesse foram submetidas ao autoescalamento. Em seguida foi aplicada análise de componentes principais (PCA) com a finalidade de reduzir a dimensionalidade dos dados e detectar a presença de valores anômalos. Quando estes foram detectados, a amostra era descartada. Os dados originais foram submetidos ao algoritmo de Kennard-Stone dividindo-os em um conjunto de calibração, para a construção do modelo, e um conjunto de validação, para verificar a sua confiabilidade. Os resultados mostraram que o modelo proposto por PLS2 (Mínimos Quadrados Parciais) foi capaz de se ajustar bem os dados de índice de refração e de massa específica, podendo ser observado um comportamento aleatório dos erros, indicando a presença de homocedasticidade nos valores residuais, em outras palavras, o modelo construído apresentou uma capacidade de previsão para as propriedades de massa específica e índice de refração com 95% de confiança. A exatidão do modelo foi também avaliada através da estimativa dos parâmetros de regressão que são a inclinação e o intercepto pela Região Conjunta da Elipse de Confiança (EJCR). Os resultados confirmaram que o modelo MIR-PLS desenvolvido foi capaz de prever, simultaneamente, as propriedades índice de refração e massa específica. Para os teores de éteres metílicos determinados por HPLC, foi também desenvolvido um modelo MIR-PLS para correlacionar estes valores com os espectros de MIR, porém a qualidade do ajuste não foi tão boa. Apesar disso, foi possível mostrar que os dados podem ser modelados e correlacionados com os espectros de infravermelho utilizando calibração multivariada

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Administração Pública brasileira vive uma significativa crise de eficiência, enquanto a reforma gradual da legislação facilitou o acesso ao Poder Judiciário. No lugar de pleitear direitos perante o Poder Executivo e, na eventual hipótese de indeferimento, buscar a correção pontual de abusos ou ilegalidades na via judicial, cada vez mais pessoas têm procurado de imediato a tutela jurisdicional, como se o juiz pudesse ou devesse substituir o papel do administrador. Isto sobrecarrega os tribunais, desvirtua o seu papel e contribui para que eles passem a padecer dos mesmos problemas que a Administração. À luz da garantia de inafastabilidade da apreciação das lesões a direito pelo Judiciário, a jurisprudência já condicionou o interesse de agir ao exaurimento da via administrativa, já dispensou totalmente o prévio requerimento administrativo, e, em movimento pendular, recentemente iniciou esforço para, entre os dois extremos, delinear as hipóteses em que a existência de interesse processual de agir depende de um ato de indeferimento administrativo que caracterize a resistência do réu à pretensão do autor para que, sem criar óbices intransponíveis à concretização dos direitos, o acesso desmedido aos juízes não se converta em novo obstáculo ao acesso à Justiça efetiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um dos problemas mais relevantes em organizações de grande porte é a escolha de locais para instalação de plantas industriais, centros de distribuição ou mesmo pontos comerciais. Esse problema logístico é uma decisão estratégica que pode causar um impacto significativo no custo total do produto comercializado. Existem na literatura diversos trabalhos que abordam esse problema. Assim, o objetivo desse trabalho é analisar o problema da localização de instalações proposto por diferentes autores e definir um modelo que seja o mais adequado possível ao mercado de distribuição de combustíveis no Brasil. Para isso, foi realizada uma análise do fluxo de refino e distribuição praticado neste segmento e da formação do respectivo custo de transporte. Foram consideradas restrições como capacidade de estoque, gama de produtos ofertados e níveis da hierarquia de distribuição. A partir dessa análise, foi definido um modelo matemático aplicado à redução dos custos de frete considerando-se a carga tributária. O modelo matemático foi implementado, em linguagem C, e permite simular o problema. Foram aplicadas técnicas de computação paralela visando reduzir o tempo de execução do algoritmo. Os resultados obtidos com o modelo Single Uncapacited Facility Location Problem (SUFLP) simulado nas duas versões do programa, sequencial e paralela, demonstram ganhos de até 5% em economia de custos e redução do tempo de execução em mais de 50%.