17 resultados para Problem formulation

em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ


Relevância:

60.00% 60.00%

Publicador:

Resumo:

A identificação de danos estruturais é uma questão de fundamental importância na engenharia, visto que uma estrutura está sujeita a processos de deterioração e a ocorrência de danos durante a sua vida útil. A presença de danos compromete o desempenho e a integridade estrutural, podendo colocar vidas humanas em risco e resultam em perdas econômicas consideráveis. Técnicas de identificação de danos estruturais e monitoramento de estruturas fundamentadas no ajuste de um Modelo de Elementos Finitos (MEF) são constantes na literatura especializada. No entanto, a obtenção de um problema geralmente mal posto e o elevado custo computacional, inerente a essas técnicas, limitam ou até mesmo inviabilizam a sua aplicabilidade em estruturas que demandam um modelo de ordem elevada. Para contornar essas dificuldades, na formulação do problema de identificação de danos, pode-se utilizar o Modelo de Superfície de Reposta (MSR) em substituição a um MEF da estrutura. No presente trabalho, a identificação de danos estruturais considera o ajuste de um MSR da estrutura, objetivando-se a minimização de uma função de erro definida a partir das frequências naturais experimentais e das correspondentes frequências previstas pelo MSR. Estuda-se o problema de identificação de danos estruturais em uma viga de Euler-Bernoulli simplesmente apoiada, considerando as frequências naturais na formulação do problema inverso. O comportamento de uma viga de Euler-Bernoulli simplesmente apoiada na presença de danos é analisado, com intuito de se verificar as regiões onde a identificação dos mesmos pode apresentar maior dificuldade. No processo de identificação de danos, do presente trabalho, são avaliados os tipos de superfícies de resposta, após uma escolha apropriada do tipo de superfície de resposta a ser utilizado, determina-se a superfície de resposta considerando os dados experimentais selecionados a partir do projeto ótimo de experimentos. A utilização do método Evolução Diferencial (ED) no problema inverso de identificação de danos é considerado inerente aos resultados numéricos obtidos, a estratégia adotada mostrou-se capaz de localizar e quantificar os danos com elevada acurácia, mostrando a potencialidade do modelo de identificação de danos proposto.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Modelos de evolução populacional são há muito tempo assunto de grande relevância, principalmente quando a população de estudo é composta por vetores de doenças. Tal importância se deve ao fato de existirem milhares de doenças que são propagadas por espécies específicas e conhecer como tais populações se comportam é vital quando pretende-se criar políticas públicas para controlar a sua proliferação. Este trabalho descreve um problema de evolução populacional difusivo com armadilhas locais e tempo de reprodução atrasado, o problema direto descreve a densidade de uma população uma vez conhecidos os parâmetros do modelo onde sua solução é obtida por meio da técnica de transformada integral generalizada, uma técnica numérico-analítica. Porém a solução do problema direto, por si só, não permite a simulação computacional de uma população em uma aplicação prática, uma vez que os parâmetros do modelo variam de população para população e precisam, portanto, ter seus valores conhecidos. Com o objetivo de possibilitar esta caracterização, o presente trabalho propõe a formulação e solução do problema inverso, estimando os parâmetros do modelo a partir de dados da população utilizando para tal tarefa dois métodos Bayesianos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O tema da pesquisa é a tese de Heidegger para a origem do pensamento metafísico. O presente tema parte do pressuposto de que o filósofo alemão Martin Heidegger (1889-1976) entende que a metafísica esteja ligada a um modo de comportamento criador de hipostasias. O conceito de hipostasia denota o comportamento de tomar a consciência e os objetos como entes simplesmente dados, comportamento observado no cotidiano mais imediato e no pensamento filosófico tradicional (metafísico). Assumimos como problema a seguinte questão: como, segundo Heidegger, se origina o modelo teórico da metafísica?; como subproblema: como a metafísica se vê comprometida com o comportamento hipostasiante? A pesquisa possui os seguintes objetivos: a) determinar como o modelo teórico da metafísica se originaria desse comportamento hipostasiante; b) avaliar em que grau o modelo teórico da metafísica está comprometido por tal comportamento. Nosso trabalho atuará em caráter expositivo, com o método descritivo próprio à fenomenologia. Tem, primeiramente, a tarefa de apresentar os pressupostos que permitem a caracterização da referida tese enquanto tema; depois, define seus termos para, partindo desses, reconstituir seus argumentos. Essa reconstituição, por sua vez, só se realiza unindo os indícios deixados em documentos que testemunham o interesse do filósofo pelo tema e antecipam a formulação mais elaborada da tese em Ser e tempo (1927). (Isso delimita o campo da presente pesquisa entre alguns dos principais textos da produção do filósofo na década de 1920). Deste modo, reconstruir a tese heideggeriana sobre a origem da metafísica implica reconstituir o modo com o qual o comportamento hipostasiante atua na filosofia tradicional criando crises. Essa metodologia (exposição reconstrutiva) busca, portanto, explicitar o esforço de Heidegger por mostrar que a metafísica é resultado de uma série de descuidos (Versäumnis) que podem ser identificados no interior da história da filosofia. O tema e problema de nossa pesquisa se justificam por trabalharmos com a questão que desde cedo motivou as investigações heideggerianas acerca do sentido do ser, o que não só inaugurou o diálogo do filósofo com a tradição metafísica, quanto provocou desdobramentos e modulações integrantes da obra de Heidegger. E ainda, por, ao nos ocuparmos do tema da origem da metafísica, buscamos esclarecer como é possível que algo assim com a filosofia seja possível.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um Estudo para a solução numérica do modelo de difusão com retenção, proposta por Bevilacqua et al. (2011), é apresentado, bem como uma formulação implícita para o problema inverso para a estimativa dos parâmetros envolvidos na formulação matemática do modelo. Através de um estudo minucioso da análise de sensibilidade e do cálculo do coeficiente de correlação de Pearson, são identificadas as chances de se obter sucesso na solução do problema inverso através do método determinístico de Levenberg-Marquardt e dos métodos estocásticos Algoritmo de Colisão de Partículas (Particle Collision Algorithm - PCA) e Evolução Diferencial (Differential Evolution - DE). São apresentados os resultados obtidos através destes três métodos de otimização para três casos de conjunto de parâmetros. Foi observada uma forte correlação entre dois destes três parâmetros, o que dificultou a estimativa simultânea dos mesmos. Porém, foi obtido sucesso nas estimativas individuais de cada parâmetro. Foram obtidos bons resultados para os fatores que multiplicam os termos diferenciais da equação que modela o fenômeno de difusão com retenção.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A necessidade de se obter soluções para os diversos problemas estruturais na engenharia, associado ao amplo crescimento e difusão da construção metálica fez surgir, por volta dos anos 60, os perfis tubulares. As ligações soldadas entre perfis tubulares são as ligações de maior difusão nas construções com este tipo de perfil, sendo necessário portanto, estudos mais detalhados que tornem a utilização de ligações soldadas mais seguras e otimizadas. O Eurocode 3 possui um item específico para as ligações entre perfis tubulares, em especial as ligações soldadas devido a suas particularidades. Infelizmente, a norma brasileira NBR8800 não aborda as ligações envolvendo perfis tubulares. Para a execução da análise numérica no presente trabalho, faz-se necessário uma revisão bibliográfica. Com estes resultados, foram feitas modelagens de ligações tubulares com o método dos elementos finitos de forma a otimizar os modelos a serem utilizados em uma análise paramétrica futura. Desta forma, foram desenvolvidos dois modelos numéricos, um considerando ligação tipo T entre perfis tubulares quadrados e outro para uma ligação tipo K entre perfis circulares. Estes modelos foram caracterizados através de elementos de casca com seis graus de liberdade por nó considerando-se adicionalmente o efeito de membrana. A análise não-linear realizada considerou a não-linearidade do material através do critério de plastificação de Von Mises através de uma lei constitutiva tensão versus deformação bi-linear e a não-linearidade geométrica foi atribuída através da formulação de Lagrange atualizado. Dentre as principais conclusões obtidas no presente trabalho, pode-se citar que os resultados para as ligações tipo T, o Eurocode 3, fornece resultados que precisam ser observados com cautela. Todavia, para as ligações do tipo K, os resultados numéricos mostraram-se sempre inferiores aos valores através do Eurocode 3, representando um dimensionamento a favor da segurança.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta uma modelagem matemática para o processo de aquecimento de um corpo exposto a uma fonte pontual de radiação térmica. O resultado original que permite a solução exata de uma equação diferencial parcial não linear a partir de uma seqüência de problemas lineares também é apresentado. Gráficos gerados com resultados obtidos pelo método de diferenças finitas ilustram a solução do problema proposto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em uma grande gama de problemas físicos, governados por equações diferenciais, muitas vezes é de interesse obter-se soluções para o regime transiente e, portanto, deve-se empregar técnicas de integração temporal. Uma primeira possibilidade seria a de aplicar-se métodos explícitos, devido à sua simplicidade e eficiência computacional. Entretanto, esses métodos frequentemente são somente condicionalmente estáveis e estão sujeitos a severas restrições na escolha do passo no tempo. Para problemas advectivos, governados por equações hiperbólicas, esta restrição é conhecida como a condição de Courant-Friedrichs-Lewy (CFL). Quando temse a necessidade de obter soluções numéricas para grandes períodos de tempo, ou quando o custo computacional a cada passo é elevado, esta condição torna-se um empecilho. A fim de contornar esta restrição, métodos implícitos, que são geralmente incondicionalmente estáveis, são utilizados. Neste trabalho, foram aplicadas algumas formulações implícitas para a integração temporal no método Smoothed Particle Hydrodynamics (SPH) de modo a possibilitar o uso de maiores incrementos de tempo e uma forte estabilidade no processo de marcha temporal. Devido ao alto custo computacional exigido pela busca das partículas a cada passo no tempo, esta implementação só será viável se forem aplicados algoritmos eficientes para o tipo de estrutura matricial considerada, tais como os métodos do subespaço de Krylov. Portanto, fez-se um estudo para a escolha apropriada dos métodos que mais se adequavam a este problema, sendo os escolhidos os métodos Bi-Conjugate Gradient (BiCG), o Bi-Conjugate Gradient Stabilized (BiCGSTAB) e o Quasi-Minimal Residual (QMR). Alguns problemas testes foram utilizados a fim de validar as soluções numéricas obtidas com a versão implícita do método SPH.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As indústrias farmacêuticas que utilizam salas limpas, em seus processos produtivos, devem controlar ao máximo o nível de contaminantes microbiológicos, baseada na legislação RDC 210 que determina o cumprimento das diretrizes estabelecidas no Regulamento Técnico das Boas Práticas para a Fabricação de Medicamentos. Diante deste cenário, a proposta deste trabalho é avaliar o processo de fumigação com o reagente formaldeído, para a limpeza e desinfecção de salas limpas do Instituto de Tecnologia de Imunobiológicos Bio-Manguinhos. Então, foram desenvolvidas as seguintes etapas: diagnóstico com as indústrias farmacêuticas para traçar um perfil quanto ao uso da fumigação; quantificação de resíduos gerados; avaliação da exposição dos operadores ao formaldeído que é cancerígeno e acompanhamento dos resultados do monitoramento ambiental do ar e de superfícies, inicialmente na sala limpa do SEFBC, cuja atividade principal é a formulação de vacinas bacterianas e biofármacos, após a implantação do espaçamento da fumigação. Os resultados discutidos na presente dissertação mostraram, que a maior parte das indústrias farmacêuticas, não realiza a desinfecção por intermédio da fumigação e que o resíduo gerado neste processo é o mais crítico. E, sobretudo, o monitoramento microbiológico do ar e de superfícies da sala limpa do SEFBC, a partir da metodologia adotada de espaçamento da fumigação, comprovou que não é necessário o emprego deste processo de forma rotineira, para garantir os níveis exigidos de limpeza e desinfecção da respectiva área

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Consensos doutrinários acerca da novidade da proteção do ser humano por declarações de direito internas e internacionais e por constituições especificamente pela constituição Brasileira de 1988 - conformaram o ponto de partida desta pesquisa. Estabeleceu-se, inicialmente, um problema teórico que buscava sistematizar no direito internacional privado o impacto da suposta revolução teórica vivenciada pelo direito nos últimos séculos entendendo-se que a doutrina conflitual brasileira não havia desenvolvido parâmetros claros aos contornos da proteção do homem em sua esfera. Cumpridos os requisitos metodológicos relacionados à apresentação de hipótese a problema específico, o aprofundamento das pesquisas mostrou-se surpreendente: a hipótese mostrava-se inconsistente. Adotou-se, assim, o prisma de sua negação. Percebeu-se que, de fato, o ser humano se encontra hoje no centro do direito, mas que no direito internacional privado a novidade anunciada não se mostrava recente e que o deslumbramento com a dignidade humana falseava na técnica conflitual sua razão de ser originária. O trabalho foi realizado levando-se em conta o método dedutivo-indutivo de pesquisa a partir da utilização das doutrinas do direito internacional privado, do discurso da proteção do homem e das teorias constitucionais como instrumento de verificação da hipótese proposta ao problema inicialmente apresentado. A inovação do estudo realizado não se encontra, assim, necessariamente em seu conteúdo, mas na sistematização teórica da relação existente entre a doutrina da proteção do indivíduo, incorporada definitivamente ao direito constitucional brasileiro atual, e o direito internacional privado. Buscou-se demonstrar que o impacto da proteção do homem na disciplina deve ser entendido como um diálogo e que a técnica conflitual não seria meramente induzida pelos direitos humanos fundamentais, mas também indutora de seu reconhecimento e consagração. O trabalho foi dividido em três partes distintas, mas interdependentes. Na primeira delas, apresentaram-se as bases teóricas da pesquisa. Foram organizadas, nesse ponto, as premissas consideradas essenciais ao avanço da investigação. A segunda seção adota a classificação predominante na doutrina brasileira para o objeto do direito internacional privado para sistematizar a análise do tema em seu viés prático. Na terceira seção, demonstra-se de que forma os resultados parciais obtidos acabaram por negar paulatinamente a hipótese inicial fixada. Observou-se que, caso se admitisse que o discurso dos direitos humanos se estabeleceu como axioma informador do direito como um todo há poucas centenas de anos e que a ordem jurídica brasileira apenas protegeu o indivíduo a partir de 1988, o direito internacional privado deveria ser entendido como predecessor, como técnica que antecipou toda essa dinâmica. Mais que isso, concluiu-se que o sobredireito internacional tem sua origem e finalidade maior na proteção dos seres humanos e que não foi apenas induzido pelo discurso da defesa do homem. Conclui-se, por fim, que tratar a proteção do ser humano pelo direito internacional privado como dado contemporâneo ou moderno constituiria, de todo o investigado, grave equívoco que desconsideraria as origens, os fundamentos e as funções da técnica conflitual.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O surgimento de novos serviços de telecomunicações tem provocado um enorme aumento no tráfego de dados nas redes de transmissão. Para atender a essa demanda crescente, novas tecnologias foram desenvolvidas e implementadas ao longo dos anos, sendo que um dos principais avanços está na área de transmissão óptica, devido à grande capacidade de transporte de informação da fibra óptica. A tecnologia que melhor explora a capacidade desse meio de transmissão atualmente é a multiplexação por divisão de comprimento de onda ou Wavelength Division Multiplexing (WDM) que permite a transmissão de diversos sinais utilizando apenas uma fibra óptica. Redes ópticas WDM se tornaram muito complexas, com enorme capacidade de transmissão de informação (terabits por segundo), para atender à explosão de necessidade por largura de banda. Nesse contexto, é de extrema importância que os recursos dessas redes sejam utilizados de forma inteligente e otimizada. Um dos maiores desafios em uma rede óptica é a escolha de uma rota e a seleção de um comprimento de onda disponível na rede para atender uma solicitação de conexão utilizando o menor número de recursos possível. Esse problema é bastante complexo e ficou conhecido como problema de roteamento e alocação de comprimento de onda ou, simplesmente, problema RWA (Routing and Wavelentgh Assignment problem). Muitos estudos foram realizados com o objetivo de encontrar uma solução eficiente para esse problema, mas nem sempre é possível aliar bom desempenho com baixo tempo de execução, requisito fundamental em redes de telecomunicações. A técnica de algoritmo genético (AG) tem sido utilizada para encontrar soluções de problemas de otimização, como é o caso do problema RWA, e tem obtido resultados superiores quando comparada com soluções heurísticas tradicionais encontradas na literatura. Esta dissertação apresenta, resumidamente, os conceitos de redes ópticas e de algoritmos genéticos, e descreve uma formulação do problema RWA adequada à solução por algoritmo genético.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho pretende abordar a questão do uso de drogas por psicótico como um impasse a ser enfrentado em três dimensões: a política, a teórica e a clínica. Para tal fim, faz-se uma discussão a respeito da política de internação compulsória como resposta ao problema, em oposição à orientação psicanalítica baseada pela escuta do sujeito. Trabalhou-se, por um lado os discursos moralistas que atravessam nossa sociedade e por outro a formulação lacaniana quanto ao desejo do psicanalista. Faz parte dessa dimensão o diálogo entre a psicanálise e uma vertente da psiquiatria que acaba por fomentar aquelas práticas de exclusão. Para tanto, foi necessário uma breve retomada histórica a respeito de como a psiquiatria no Brasil foi, aos poucos, deixando de lado o rigor clínico de seus precursores para orientar-se pela psiquiatria classificatória dos transtornos. Trabalhou-se também o conceito de estrutura em psicanálise apontado para a diferença clínica e teórica desse discurso em relação àquele. Teoricamente, a questão do uso de droga relacionado à psicose aponta para a necessidade de se pensar a relação sujeito-objeto, quando o que está em jogo é uma condição estrutural que foraclui o Nome do Pai como significante ímpar na constituição subjetiva. Foi preciso trabalhar o conceito de objeto desde o seu aparecimento em Freud até a formulação lacaniana de objeto a. Clinicamente, a história do jovem Ruan exemplifica algumas das dificuldades, angústias e desafios que o psicanalista vai se deparar quando aventurar-se na escuta de um sujeito psicótico para quem a droga é elemento do delírio pelo qual busca organizar-se subjetivamente

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho estuda a transferência de calor por condução considerando a condutividade térmica como uma função constante por partes da temperatura. Esta relação, embora fisicamente mais realista que supor a condutividade térmica constante, permite obter uma forma explícita bem simples para a inversa da Transformada de Kirchhoff (empregada para tratar a não linearidade do problema). Como exemplo, apresenta-se uma solução exata para um problema com simetria esférica. Em seguida, propôe-se uma formulação variacional (com unicidade demonstrada) que introduz um funcional cuja minimização é equivalente à solução do problema na forma forte. Finalmente compara-se uma solução exata obtida pela inversa da Transformada de Kirchhoff com a solução obtida via formulação variacional.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Métodos de otimização que utilizam condições de otimalidade de primeira e/ou segunda ordem são conhecidos por serem eficientes. Comumente, esses métodos iterativos são desenvolvidos e analisados à luz da análise matemática do espaço euclidiano n-dimensional, cuja natureza é de caráter local. Consequentemente, esses métodos levam a algoritmos iterativos que executam apenas as buscas locais. Assim, a aplicação de tais algoritmos para o cálculo de minimizadores globais de uma função não linear,especialmente não-convexas e multimodais, depende fortemente da localização dos pontos de partida. O método de Otimização Global Topográfico é um algoritmo de agrupamento, que utiliza uma abordagem baseada em conceitos elementares da teoria dos grafos, a fim de gerar bons pontos de partida para os métodos de busca local, a partir de pontos distribuídos de modo uniforme no interior da região viável. Este trabalho tem dois objetivos. O primeiro é realizar uma nova abordagem sobre método de Otimização Global Topográfica, onde, pela primeira vez, seus fundamentos são formalmente descritos e suas propriedades básicas são matematicamente comprovadas. Neste contexto, propõe-se uma fórmula semi-empírica para calcular o parâmetro chave deste algoritmo de agrupamento, e, usando um método robusto e eficiente de direções viáveis por pontos-interiores, estendemos o uso do método de Otimização Global Topográfica a problemas com restrições de desigualdade. O segundo objetivo é a aplicação deste método para a análise de estabilidade de fase em misturas termodinâmicas,o qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. A solução deste problema de otimização global é necessária para o cálculo do equilíbrio de fases, que é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Além disso, afim de ter uma avaliação inicial do potencial dessa técnica, primeiro vamos resolver 70 problemas testes, e então comparar o desempenho do método proposto aqui com o solver MIDACO, um poderoso software recentemente introduzido no campo da otimização global.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Azeotropia é um fenômeno termodinâmico onde um líquido em ebulição produz um vapor com composição idêntica. Esta situação é um desafio para a Engenharia de Separação, já que os processos de destilação exploram as diferenças entre as volatilidades relativas e, portanto, um azeótropo pode ser uma barreira para a separação. Em misturas binárias, o cálculo da azeotropia é caracterizado por um sistema não-linear do tipo 2 × 2. Um interessante e raro caso é o denominado azeotropia dupla, que pode ser verificado quando este sistema não-linear tem duas soluções, correspondendo a dois azeótropos distintos. Diferentes métodos tem sido utilizados na resolução de problemas desta natureza, como métodos estocásticos de otimização e as técnicas intervalares (do tipo Newton intervalar/bisseção generalizada). Nesta tese apresentamos a formulação do problema de azeotropia dupla e uma nova e robusta abordagem para a resolução dos sistemas não-lineares do tipo 2 × 2, que é a inversão de funções do plano no plano (MALTA; SALDANHA; TOMEI, 1996). No método proposto, as soluções são obtidas através de um conjunto de ações: obtenção de curvas críticas e de pré-imagens de pontos arbritários, inversão da função e por fim, as soluções esperadas para o problema de azeotropia. Esta metodologia foi desenvolvida para resolver sistemas não-lineares do tipo 2 × 2, tendo como objetivo dar uma visão global da função que modela o fenômeno em questão, além, é claro, de gerar as soluções esperadas. Serão apresentados resultados numéricos para o cálculo dos azeótropos no sistema benzeno + hexafluorobenzeno a baixas pressões por este método de inversão. Como ferramentas auxiliares, serão também apresentados aspectos numéricos usando aproximações clássicas, tais como métodos de Newton com técnicas de globalização e o algorítmo de otimização não-linear C-GRASP, para efeito de comparação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em 1828 foi observado um fenômeno no microscópio em que se visualizava minúsculos grãos de pólen mergulhados em um líquido em repouso que mexiam-se de forma aleatória, desenhando um movimento desordenado. A questão era compreender este movimento. Após cerca de 80 anos, Einstein (1905) desenvolveu uma formulação matemática para explicar este fenômeno, tratado por movimento Browniano, teoria cada vez mais desenvolvida em muitas das áreas do conhecimento, inclusive recentemente em modelagem computacional. Objetiva-se pontuar os pressupostos básicos inerentes ao passeio aleatório simples considerando experimentos com e sem problema de valor de contorno para melhor compreensão ao no uso de algoritmos aplicados a problemas computacionais. Foram explicitadas as ferramentas necessárias para aplicação de modelos de simulação do passeio aleatório simples nas três primeiras dimensões do espaço. O interesse foi direcionado tanto para o passeio aleatório simples como para possíveis aplicações para o problema da ruína do jogador e a disseminação de vírus em rede de computadores. Foram desenvolvidos algoritmos do passeio aleatório simples unidimensional sem e com o problema do valor de contorno na plataforma R. Similarmente, implementados para os espaços bidimensionais e tridimensionais,possibilitando futuras aplicações para o problema da disseminação de vírus em rede de computadores e como motivação ao estudo da Equação do Calor, embora necessita um maior embasamento em conceitos da Física e Probabilidade para dar continuidade a tal aplicação.