1000 resultados para Matemàtica aplicada


Relevância:

60.00% 60.00%

Publicador:

Resumo:

En aquesta tesi es solucionen problemes de visibilitat i proximitat sobre superfícies triangulades considerant elements generalitzats. Com a elements generalitzats considerem: punts, segments, poligonals i polígons. Les estrategies que proposem utilitzen algoritmes de geometria computacional i hardware gràfic. Comencem tractant els problemes de visibilitat sobre models de terrenys triangulats considerant un conjunt d'elements de visió generalitzats. Es presenten dos mètodes per obtenir, de forma aproximada, mapes de multi-visibilitat. Un mapa de multi-visibilitat és la subdivisió del domini del terreny que codifica la visibilitat d'acord amb diferents criteris. El primer mètode, de difícil implementació, utilitza informació de visibilitat exacte per reconstruir de forma aproximada el mapa de multi-visibilitat. El segon, que va acompanyat de resultats d'implementació, obté informació de visibilitat aproximada per calcular i visualitzar mapes de multi-visibilitat discrets mitjançant hardware gràfic. Com a aplicacions es resolen problemes de multi-visibilitat entre regions i es responen preguntes sobre la multi-visibilitat d'un punt o d'una regió. A continuació tractem els problemes de proximitat sobre superfícies polièdriques triangulades considerant seus generalitzades. Es presenten dos mètodes, amb resultats d'implementació, per calcular distàncies des de seus generalitzades sobre superfícies polièdriques on hi poden haver obstacles generalitzats. El primer mètode calcula, de forma exacte, les distàncies definides pels camins més curts des de les seus als punts del poliedre. El segon mètode calcula, de forma aproximada, distàncies considerant els camins més curts sobre superfícies polièdriques amb pesos. Com a aplicacions, es calculen diagrames de Voronoi d'ordre k, i es resolen, de forma aproximada, alguns problemes de localització de serveis. També es proporciona un estudi teòric sobre la complexitat dels diagrames de Voronoi d'ordre k d'un conjunt de seus generalitzades en un poliedre sense pesos.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Diffusion Tensor Imaging (DTI) is a new magnetic resonance imaging modality capable of producing quantitative maps of microscopic natural displacements of water molecules that occur in brain tissues as part of the physical diffusion process. This technique has become a powerful tool in the investigation of brain structure and function because it allows for in vivo measurements of white matter fiber orientation. The application of DTI in clinical practice requires specialized processing and visualization techniques to extract and represent acquired information in a comprehensible manner. Tracking techniques are used to infer patterns of continuity in the brain by following in a step-wise mode the path of a set of particles dropped into a vector field. In this way, white matter fiber maps can be obtained.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A dengue representa um sério problema de saúde pública no Brasil, que apresenta condições climáticas favoráveis ao desenvolvimento e proliferação do Aedes aegypti, vetor transmissor da doeça. O mosquito Aedes aegypti passa por diferentes estágios de desenvolvi- mento com características distintas, logo, para uma descrição mais aproximada da história de vida desta espécie e, consequentemente, do comportamento da epidemia, considera-se neste trabalho um modelo com distribuição etária, fundamental para a determinação das propriedades de estabilidade de populações que têm fases distintas de desenvolvimento. O modelo com distribuição etária para a população de mosquitos é descrito por um conjunto de equações diferenciais ordinárias com retardo de difícil análise e implementação. Inicialmente, apresenta-se o modelo SEIR com dinâmica vital, onde a população de mosquitos estabiliza rapidamente e, após, incorpora-se a ele um modelo com competição larval uniforme para população de insetos, com distribuição etária, o que provoca um período de instabilidade nas populações de larvas e adultos, estágios de desenvolvimento considerados para o vetor. A análise realizada investiga as consequências que este período de instabilidade provoca na evolução da epidemia.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O presente trabalho tem por objetivo investigar se a adoção de documentos eletrônicos, uma realidade cuja obrigatoriedade é crescente no Brasil, é acompanhada por uma redução nos custos de conformidade das empresas. O autor buscou o referencial teórico em várias áreas do conhecimento: no Direito Tributário e no Direito Civil, na Matemática Aplicada, na Tecnologia da Informação e, por fim, na Contabilidade. Do Direito Civil vieram os conceitos de documento, que juntamente com conceitos de Matemática e de Teoria da Informação permitem construir a noção de Documento Eletrônico. Do Direito Tributário vieram as noções relativas aos tributos no ordenamento brasileiro, e as suas obrigações associadas (principal e acessórias). Da Contabilidade buscaram-se as definições de custos de conformidade e de transação, de forma que se pudesse avaliar quanto custa para uma empresa ser conforme com as obrigações tributárias acessórias brasileiras, especialmente no que tange ao uso de documentos fiscais eletrônicos. O estudo foi circunscrito na Nota Fiscal Eletrônica, que no Brasil deve ser utilizada em operações de circulação de mercadorias em substituição à Nota Fiscal Modelo 1 ou 1-A, documento tradicional que existe há décadas no Brasil. Buscaram-se informações quantitativas com empresas brasileiras, e a conclusão final é que existem evidências que justificam a afirmação de que o uso de documentos eletrônicos é mais barato que o uso de documentos em papel, mediante a comparação entre os custos de transação associados com a Nota Fiscal Modelo 1 ou 1-A e com a Nota Fiscal Eletrônica.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Em agosto de 2012, o economista-chefe do Centro de Políticas Sociais da Fundação Getulio Vargas (FGV), Marcelo Neri, foi nomeado presidente do Instituto de Pesquisa Econômica Aplicada (Ipea). Em março do mesmo ano, ainda pela FGV, Neri lançara o livro A Nova Classe Média: o lado brilhante da base da pirâmide, que retoma a série de estudos sobre a nova classe média que vinha realizando pela Fundação desde 2008. O presente trabalho analisa mudanças no enquadramento das notícias do jornal O Globo relativas à nova classe média nos períodos em que Marcelo Neri atuou na FGV e, posteriormente, no governo federal, por meio de uma Análise de Enquadramento Textualmente Orientada – método crítico de análise dos enquadramentos da mídia cujo intuito é auxiliar na percepção e mensuração de mudanças nos vieses noticiosos em função de variáveis políticas. Tal metodologia alia a análise linguística de grandes volumes de texto à teoria social do discurso, e foi desenvolvida em parceria com a Escola de Matemática Aplicada (EMAp/FGV), tendo como base ferramentas computacionais de Linguística de Corpus e Processamento de Linguagem Natural (PLN).

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Moderador: Thomaz Wood

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Trabalho apresentado no XXXV CNMAC, Natal-RN, 2014.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Trabalho apresentado no 37th Conference on Stochastic Processes and their Applications - July 28 - August 01, 2014 -Universidad de Buenos Aires

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Trabalho apresentado no Congresso Nacional de Matemática Aplicada à Indústria, 18 a 21 de novembro de 2014, Caldas Novas - Goiás

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Trabalho apresentado no International Conference on Scientific Computation And Differential Equations 2015

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Trabalho apresentado Numerical Solution of Differential and Differential-Algebraic Equations (NUMDIFF-14), Halle, 7-11 Sep 2015

Relevância:

60.00% 60.00%

Publicador:

Resumo:

É senso comum que o texto escrito é uma importante forma de registrar as informações e que atualmente grande parte desse conteúdo informacional está disponível em meio digital. Entretanto, de maneira geral, os computadores lidam com o texto como sendo uma cadeia de caracteres que não têm nenhum significado. A área de Processamento de Linguagem Natural (PLN) vem se empenhando em extrair significados do texto. Nesse sentido este trabalho apresenta uma revisão desse tema e propõe um método automatizado que utiliza uma heurística determinística denominada Heudet que visa extrair bigramas do texto. A meta é extrair o significado do texto através de um conjunto de expressões multipalavras identificadas. Os resultados obtidos foram melhores se comparados com aqueles que utilizam-se das técnicas de medidas de associação estatística obtidas pelo software Ngram Statistics Package (NSP).

Relevância:

60.00% 60.00%

Publicador:

Resumo:

EMAp - Escola de Matemática Aplicada

Relevância:

60.00% 60.00%

Publicador:

Resumo:

EMAp - Escola de Matemática Aplicada

Relevância:

60.00% 60.00%

Publicador:

Resumo:

EMAp - Escola de Matemática Aplicada