1000 resultados para Modelos físicos


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O principal objectivo deste trabalho assenta em desenvolver modelos de previsão de preços de commodities para assim comparar a capacidade preditiva da simulação de Monte Carlo com a das redes neuronais. A simulação de Monte Carlo é principalmente utilizada para avaliar as opções, já as redes neuronais são utilizadas para fazer previsões, classificações, clustering ou aproximação de funções. Os diversos modelos desenvolvidos foram aplicados na previsão do preço futuro do milho, petróleo, ouro e cobre. Sendo que os horizontes temporais testados neste trabalho foram 1 dia, 5 dias, 20 dias e 60 dias. Através da análise do erro absoluto médio percentual (MAPE) concluiu-se que no geral o modelo individual que apresentou um melhor desempenho preditivo foram as redes neuronais. Contudo, nas previsões a 1 e a 5 dias os resultados obtidos foram semelhantes para ambos os modelos. Para se tentar melhorar os resultados obtidos pelos modelos individuais foram aplicadas algumas técnicas de combinação de modelos. A combinação de modelos demonstrou no geral capacidade para melhorar os resultados dos modelos individuais, porém apenas para o horizonte a 60 dias é que os resultados melhoraram significativamente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A elicitação de requisitos é uma das primeiras actividades do processo de Engenharia de Requisitos. Através desta etapa é possível capturar e estruturar os requisitos dos stakeholders e do sistema a ser implementado. Tipicamente esta estruturação é representada através de notação gráfica com o auxílio de ferramentas CASE. Estas ferramentas tornam esta actividade exclusiva, em termos de acessibilidade, a engenheiros sem deficiências físicas devido à complexidade das funcionalidades oferecidas pelas mesmas que permitem construir estes modelos. Nesta dissertação de mestrado é proposto desenvolver uma abordagem com suporte de uma ferramenta para melhorar a acessibilidade, e consequentemente,integrar um engenheiro de requisitos com limitações físicas na actividade de elicitação de requisitos. A ferramenta também possibilita uma alternativa para os stakeholders em geral para produzir modelos sem usar as mãos quando for mais conveniente. Esta abordagem propõe usar mecanismos de voz na geração de modelos de requisitos, mais concretamente modelos de requisitos orientados a objectivos, modelos de objectos e modelos de features usando técnicas de Model-Driven Development (MDD) (e.g., metamodelos). O stakeholder assim irá capturar os seus requisitos através de mecanismos de reconhecimento de voz, sendo automaticamente realizada uma transformação do seu discurso para um modelo KAOS, para um modelo conceptual ou para um modelo de features.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As abordagens de engenharia de requisitos orientada a objetivos oferecem mecanismos que ajudam na elicitação e modelação de requisitos. A presente dissertação centra-se no framework i*, uma das mais importantes linguagens de especificação de modelos de requisitos orientados a objetivos, que conta com grupos de trabalho em mais de vinte países e com sete edições de workshops internacionais. Existem alguns problemas que podem afetar a qualidade de modelos i*. A sua criação pode resultar em modelos complexos e/ou incompletos, assim como incorretos devido ao mau uso da notação do i*. Estes problemas contribuem para a existência de dificuldades na gestão e compreensão dos sistemas de software o que, por sua vez, leva a um aumento dos custos de desenvolvimento. A qualidade dos modelos deve, então, ser uma preocupação constante, por forma a que sejam construídos modelos corretos, completos e cuja complexidade acidental seja minimizada. Não obstante a sua importância, a gestão eficaz destes três aspetos é, ainda, um problema em aberto. Nesta dissertação é proposto um conjunto de métricas para dar suporte à avaliação quantitativa dos atributos de qualidade complexidade, completude e correção nos modelos de requisitos i*. As métricas são definidas seguindo a abordagem Goal-Question- Metric, sendo definidas tanto de modo informal, em língua natural, como formalmente, em OCL (Object Contraint Language), e incorporadas numa ferramenta de modelação i* para que possam ser recolhidas de modo automático. As métricas são avaliadas experimentalmente, através de um conjunto de casos de estudo reais e académicos, e teoricamente, através de propriedades deWeyuker.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No processo de desenvolvimento de software, um dos problemas recorrentes é garantir que as expectativas das partes interessadas (stakeholders) estão a ser satisfeitas. Expectativas essas que correspondem ao comportamento do sistema. A disciplina de Engenharia de Requisitos estuda a melhor forma de capturar, especificar, validar e gerir requisitos. No entanto, os modelos utilizados que expressam os comportamentos, muitas das vezes, não são entendidos por parte dos stakeholders. Com a introdução das metodologias ágeis, que se baseiam no princípio de uma colaboração ativa e contínua dos stakeholders durante o desenvolvimento de software, os pressupostos da disciplina de Engenharia de Requisitos foram questionados e fizeram nascer novas práticas. Uma prática que emergiu foi o Desenvolvimento Orientado ao Comportamento (BDD). Surgiu com a finalidade de dar a capacidade aos stakeholders de expressarem, sob a forma textual, o comportamento que desejam para o seu software, de forma simples e sucinta. No entanto, não existindo restrições nem validações automáticas na escrita dos stakeholders, é criada a possibilidade de introdução de ambiguidade e perda de informação quando a equipa de desenvolvimento utiliza os cenários descritos. Dado este problema, propomos uma abordagem em que os stakeholders consigam especificar cenários comportamentais, de forma cognitiva, com uma representação simples, clara e mais precisa. Criamos duas linguagens, o DomainMap e o BehaviorMap, que estão relacionadas entre si: uma para representar modelos de domínio e outra para representar cenários BDD, respetivamente. Foi executada uma experiência com 15 indivíduos para comparar o esforço cognitivo na compreensão entre cenários BehaviorMap e cenários textuais e os resultados mostraram que o BehaviorMap teve melhor desempenho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, são apresentados e discutidos os procedimentos prescritos no Eurocódigo 3, Parte 1-8, para cálculo e dimensionamento de ligações pilar-viga com chapa de extremidade, em estruturas de aço. Em particular, é analisado o método das componentes, que permite determinar a resistência e rigidez rotacional de juntas metálicas, possibilitando a utilização de ligações semi-rígidas, que frequentemente resultam em ligações mais económicas. A metodologia descrita é aplicada em dois exemplos numéricos, tendo-se comparado os valores calculados com os resultados obtidos através de um programa de cálculo automático (Powerconnect) que também se baseia no método das componentes. As análises efetuadas permitem constatar que existem algumas vertentes do programa que podem ser melhoradas. Recorreu-se ainda a um programa de cálculo automático comercial (Sap2000) para comparar os esforços atuantes numa estrutura metálica com ligações rígidas e semi-rígidas, tendo-se concluído que existem diferenças significativas entre as distribuições de esforços obtidas para as duas situações.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As cartas topográficas são representações planas, generalizadas e reduzidas à escala, de zonas da superfície terrestre, contendo símbolos e informação textual para a descrição dos objectos. A forma mais comum de as produzir é por intermédio de fotografias aéreas, principalmente pela afinidade entre o conteúdo destas e aquilo que se convencionou representar na carta. O Instituto Geográfico do Exército (IGeoE) é uma entidade produtora de cartografia que provê, com informação geográfica, as Forças Armadas e a comunidade civil. A caracterização do relevo é parte da informação existente na carta, concretizada através das curvas de nível: linhas curvas que representam uma cota pré-definida (convencionado de 10 em 10 m nas cartas à escala 1/25 000), constante em toda a sua extensão. Estas acompanham as formas do terreno e indicam a altitude do nível do solo, independentemente de se cruzarem com outros objectos à superfície terrestre (como edifícios ou arvoredo). A informação do relevo é bastante completa, abrangendo a área de toda a carta. As curvas de nível são, por norma, restituídas, manualmente, por um operador numa estação fotogramétrica, numa tarefa compreensivelmente morosa. Uma das alternativas para a representação do relevo é por intermédio da correlação automática de fotografias aéreas, daí resultando uma nuvem de pontos cotados numa grelha regular, cada um com uma coordenada tridimensional. Alguns desses pontos contêm “ruído”, visto representarem não a cota ao nível do solo, mas a cota de objectos sobre a superfície terrestre. O processo de eliminação desse “ruído”, que permite corrigir a cota do topo do objecto para o solo, designa-se por filtragem. Há diversos processos de filtragem de nuvens de pontos, embora nenhum consiga obter resultados totalmente satisfatórios, apresentando mais ou menos dificuldades em algumas zonas de terreno específicas (zonas urbanizadas ou vegetação baixa, por exemplo). Um dos caminhos apontados para auxiliar a filtragem é a utilização de outros recursos que forneçam mais informação, para além da simples coordenada tridimensional do ponto a corrigir, bem como uma mistura de algoritmos, tentando conciliar os pontos fortes de cada uma destas abordagens. O presente trabalho desenvolveu uma metodologia automática para representar o relevo a partir de uma nuvem de pontos cotados, para ser integrada na cadeia de produção do IGeoE. A partir de uma nuvem de pontos primária, e utilizando como dados de entrada ortofotos e informação vectorial dos objectos da edição anterior e da edição de trabalho da carta (excepto relevo) da mesma região, efectua quatro filtragens: filtragem de edifícios, filtragem de áreas de arvoredo superiores a 150 m x 150 m, filtragem de áreas de arvoredo inferiores a 150 m x 150 m e árvores isoladas (envolvendo a detecção de árvores em ortofotos, ao nível do pixel, por algoritmo de aprendizagem automática), e filtragem por declives.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A estimação das provisões para sinistros é de extrema importância na atividade de uma seguradora do ramo Não Vida, porque, por um lado, são necessários recursos suficientes para garantir o pagamento de qualquer sinistro que ocorra e, por outro, o excesso de provisões pode condicionar a rentabilidade da companhia. Assim, faz parte do papel do atuário garantir a adequação destas provisões técnicas. Com esse propósito, é habitualmente utilizado o método determinístico Chain Ladder para a estimação das provisões para sinistros. Contudo, de forma a contornar as limitações desta metodologia, recorre-se a modelos estocásticos, como o modelo proposto por Thomas Mack, uma aplicação dos Modelos Lineares Generalizados, a técnica Bootstrap, entre outros. Dos modelos estocásticos é de salientar um dos mais recentemente estudados, Double Chain Ladder, que está diretamente associado ao método Chain Ladder, trazendo algumas vantagens sobre esse último e possibilitando também a aplicação da técnica Bootstrap e uma simples associação ao método Bornhuetter-Ferguson. O objetivo desta dissertação consiste na aplicação e análise destes modelos na estimação de provisões para sinistros no ramo Não Vida.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho ensaiam-se abordagens à avaliação da susceptibilidade a movimentos de terreno em contexto urbano, aplicadas ao caso específico da Vertente Sul de Odivelas. Esta dissertação encontra-se no seguimento de um trabalho efectuado pelo Laboratório Nacional de Engenharia Civil no âmbito de um estudo geológico e geotécnico para a consolidação da encosta da Vertente Sul de Odivelas e que contribuiu para a tomada de decisão da Câmara Municipal de Odivelas quanto ao futuro plano urbanístico. A encosta, com cerca de 160 hectares, compreende os bairros de Vale do Forno, Encosta da Luz, Quinta do José Luís e Serra da Luz e a localidade Quinta das Arrombas. Estes bairros pertencem a unidades denominadas Áreas Urbanas de Génese Ilegal e apresentam características que, a diversos níveis, podem contribuir para a desestabilização da vertente e, consequentemente, constituir uma situação de perigo para pessoas e bens. Deste modo procurou-se aplicar duas metodologias determinísticas, uma absoluta (metodologia do programa SHALSTAB) e outra com componente estocástica (adaptação da metodologia do programa SINMAP), que permitissem obter resultados por diversos métodos de natureza quantitativa das áreas susceptíveis a movimentos de terreno, mais especificamente, a escorregamentos translacionais superficiais. Os modelos de base física utilizados permitem a determinação quantitativa da estabilidade das vertentes pela aplicação de métodos de equilíbrio limite, nomeadamente de talude infinito, que simulam os mecanismos físicos que controlam a ocorrência de movimentos de terreno. Para a aplicação destes modelos a informação necessária inclui: as características geotécnicas e hidrogeológicas do terreno (peso volúmico, ângulo de atrito interno e transmissividade do solo) obtidas por consulta bibliográfica e debate com especialistas; o declive, produzido a partir de um modelo digital de terreno da área de estudo; a área de contribuição específica, também produzida a partir do modelo digital de terreno e valores de precipitação diária da região em estudo. O trabalho proposto foi subdividido em três etapas onde, numa primeira fase foram produzidos alguns dados de entrada (declive e bacias de drenagem), em ambiente SIG, a partir do modelo digital de terreno da área de estudo e de seguida reunidos, com os restantes dados de entrada anteriormente referidos, no programa MS Excel. Numa segunda fase foram produzidos diversos mapas de susceptibilidade, de acordo com cada metodologia, fazendo variar valores de peso volúmico, ângulo de atrito, transmissividade e recarga efectiva. Por fim, foram efectuadas diversas comparações entre os resultados por modo a estudar a variabilidade dos dados obtidos com cada técnica de análise e a validar os mapas, uma vez que não existe inventariação de movimentos de terreno. Também é discutida a aplicabilidade dos métodos determinísticos na zona em estudo, com incidência em cada bairro, e a sua viabilidade como ferramenta para estudos de carácter urbanístico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Hoje em dia a utilização de materiais compósitos por parte das indústrias é cada vez maior porque conseguem satisfazer as exigências actuais de maneira mais eficiente do que os materiais convencionais. Com o fabrico de compósitos pretende-se atingir valores óptimos de parâmetros como a forma, massa, força, durabilidade, rigidez, custos, etc. O processo de furação em materiais compósitos é um processo bastante complexo porque a furação provoca danos no material que podem comprometer as suas ligações. O dano mais importante na furação de materiais compósitos é a delaminação, por esta razão, investigações conduzidas no sentido de a reduzir ou eliminar são essenciais. A espessura dos componentes e o diâmetro dos furos são requisitos dos produtos a fabricar, mas a maioria dos modelos presentes na literatura não contempla a sua variação. Mantendo estes dois factores constantes é possível observar o efeito dos parâmetros de corte e definir os respectivos modelos empíricos, mas ainda não foi concretizado um modelo global que seja fiável do ponto de vista dos aspectos físicos do processo. Neste trabalho estudou-se a influência das variáveis do processo de furação a alta velocidade em compósitos reforçados com fibra de carbono no dano resultante através do método de Taguchi com características dinâmicas, considerando como factores de sinal a espessura do provete e o diâmetro da ferramenta e como factores de controlo as restantes variáveis, velocidade de corte e velocidade de avanço. O propósito da sua utilização foi a análise individual do efeito de cada factor de sinal, para evitar que o seu predomínio no factor de delaminação possa camuflar a influência dos parâmetros de corte. Em relação ao método utilizado, verificou-se não ser possível desacoplar os efeitos dos factores de sinal. Consequentemente, verificou-se que a influência dos parâmetros de corte fica imperceptível face ao efeito da espessura da peça e do diâmetro pretendido, não permitindo encontrar um modelo empírico generalizado. O facto do modelo de Taguchi com características dinâmicas não ser adequado pode ainda indiciar que não é possível generalizar os mecanismos do processo com base nestas variáveis.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este artigo tem por base um estudo enquadrado no uso de materiais/modelos de ensino da Matemática na década de 60, aquando da implementação do Movimento Matemática Moderna, em Portugal. Para atingir este objectivo definimos três questões: 1) Já havia interesse no uso destes novos métodos de ensino, e consequentemente no uso de materiais diversos que levassem a uma melhor aprendizagem por parte dos alunos, antes da década de 60? 2) De que modo os professores aplicaram e usaram estes métodos/materiais na sua prática docente? E que formação tiveram? 3) Quais os métodos e materiais que os professores utilizavam nas suas aulas? O foco central deste trabalho parte da análise de dois artigos escritos na revista Labor, o primeiro em 1952 e o segundo em 1960, pelo professor António Augusto Lopes1 sobre o uso de materiais no 1º ciclo e o Laboratório de Matemática. Toda a pesquisa deste trabalho focou-se na interpretação de material fornecido pelo professor Lopes (manuscritos, relatórios, livros e fotografias, documentos do Ministério da Educação Nacional), bem como por reflexões e comentários do próprio, registadas na forma de entrevista,2 sobre o que foi o Movimento Matemática Moderna ao nível da prática docente, com recurso a novas metodologias e materiais de ensino. O período que irá ser analisado em termos cronológicos será de 1957 a 1965, isto porque é um período experimental e de mudança. A reunião de 57 da CIEAEM em Madrid é o marco histórico que irá despoletar o interesse da Comissão e de Augusto Lopes para a aplicação dos novos materiais\modelos. Apesar de só em 1965 serem criadas as primeiras turmas piloto para aplicação das metodologias e dos novos materiais\modelos preconizadas pelo MMM.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Anualmente os incêndios florestais causam prejuízos por territórios por todo o mundo. Nas últimas décadas, estudos sobre o comportamento do fogo e avanços em tecnologias SIG, deram origem a modelos matemáticos de previsão e à sua inserção em sistemas informáticos de simulação de comportamento e propagação de fogo. A utilização destes necessita da caracterização das variáveis que determinam o comportamento do fogo: variáveis topográficas, condições meteorológicas e combustível vegetal. A vegetação assume-se como a única variável que pode ser controlada através de medidas de gestão e a mais estudada por todo o mundo. A sua caracterização é geralmente efetuada através de modelos de combustível, que consiste num conjunto de propriedades quantificáveis utilizadas nos modelos de comportamento do fogo. Através da utilização do simulador FARSITE, foi efetuada a simulação de comportamento de fogo em áreas de ocorrência de incêndios florestais localizadas na região do Alentejo Central, Portugal, recorrendo a diversos conjuntos de modelos de combustível para caracterizar a vegetação. Os resultados evidenciam, no geral, um maior rigor dos modelos de combustível customizados na caracterização da vegetação da área de estudo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A máquina elétrica de relutância comutada (MERC) é, inerentemente, um conversor eletromecânico de velocidade variável, facilmente controlado através dos instantes de excitação e desexcitação do circuito magnético partilhado pelas fases. A sua robustez e simplicidade construtiva (só enrolamentos concentrados no estator), flexibilidade de controlo, bom rendimento numa gama alargada de velocidades, a sua fiabilidade e tolerância a defeitos fazem desta máquina uma opção válida para sistemas de conversão de energia caraterizados por baixas velocidades. A tendência crescente de instalar turbinas eólicas em offshore, para além dos desafios económicos e tecnológicos que levanta, torna a fiabilidade e a tolerância a defeitos, requisitos de vital importância. Neste contexto, a potencial aplicação da MERC a geradores eólicos sem recurso a caixa de velocidades, já que esta penaliza o custo, o volume e a fiabilidade do sistema, serviu de motivação a este trabalho. Nesta dissertação apresentam-se, numa perspetiva comparativa, diferentes paradigmas construtivos da MERC para o funcionamento gerador em regime de baixas velocidades, caraterístico dos aproveitamentos de energias renováveis. Para o efeito, formularam-se leis de escala apropriadas a análises dimensionais de topologias diferenciadas pelas caraterísticas dos circuitos elétrico e magnético e do seu posicionamento relativo. Estes modelos de escala permitiram introduzir constrangimentos físicos e dos materiais que condicionam o projeto da máquina, como a saturação magnética e limites de temperatura. Das análises dimensionais e validação com elementos finitos, elegeu-se uma estrutura magnética modular com caminhos de fluxo curtos que foi comparada com um protótipo de MERC regular, previsto para equipar um gerador eólico. Quando comparadas as duas topologias, assumindo dimensões idênticas, a modular apresentou um significativo ganho de potência específica mantendo bons níveis de rendimento. Pretende-se assim alargar a discussão do projeto das MERC, geralmente confinado a topologias regulares, a um contexto mais abrangente que inclua novos paradigmas construtivos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As crises alimentares, a par de procedimentos nutricionais deficientes, vêm conferindo prioridade ao desenvolvimento de múltiplos aspetos de segurança e qualidade na indústria alimentar. Acresce ainda que a globalização do comércio também levou à necessidade de criação de padrões de qualidade e segurança alimentar tais como a IFS. Neste enquadramento, o objetivo deste estudo consistiu na análise de perigos físicos não metálicos, no âmbito da implementação da IFS, em unidades de padaria, numa indústria de produtos de panificação e pastelaria pré confecionados e ultracongelados. Inicialmente foi realizado um enquadramento teórico, o estudo do caso – PANICONGELADOS, massas congeladas SA, relativo ao processo produtivo das padarias 2 e 3. Procedeu-se posteriormente à análise dos perigos físicos não metálicos com incidência na avaliação das infraestruturas e equipamentos, revisão do SGSA, das metodologias e procedimentos estabelecidos para a gestão de perigos físicos relativos à produção, limpeza e higienização e manutenção. Com base no reconhecimento da situação apontaram-se as necessidades e oportunidades de melhoria. Definiram-se ainda as prioridades básicas para cumprimento dos requisitos relativos à obtenção da certificação IFS.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação apresenta o estudo de dois carbonizados, provenientes da gasificação (CG) e co-pirólise (CP) de resíduos da cultura e processamento de arroz, no processo de remoção de Cr3+ presente em meio líquido. Os materiais de partida – casca de arroz (CA) e polietileno (PE) – utilizados nos ensaios de gasificação e co-pirólise, e os carbonizados resultantes destes processos térmicos, foram caracterizados através de ensaios físicos, químicos e ecotoxicológicos. O elemento químico com maior concentração, em todos os materiais, foi o Si. Nenhum dos eluatos revelou ecotoxicidade. No estudo de remoção de Cr3+ com os dois carbonizados avaliaram-se os efeitos dos seguintes parâmetros: pH inicial da solução, massa de adsorvente, tempo de contacto e concentração inicial de Cr3+. O carbonizado que teve o melhor desempenho na remoção de Cr3+ foi o CG, com remoções de cerca de 100%, devido ao aumento de pH, que provocou a precipitação do Cr. A capacidade de adsorção deste carbonizado variou entre 12 e 26 mg Cr3+.mg-1 CG, para uma concentração inicial aproximada de Cr3+ de 50 mg.L-1, pH inicial de 5, tempo de contacto de 24 horas e razões L/S entre 800 e 1000 mL. g-1. Foram aplicados os modelos cinéticos de pseudo-primeira ordem e pseudo-segunda ordem, e as isotérmicas de Langmuir, Freundlich e Sips. Observou-se um melhor ajustamento da cinética de pseudo-segunda ordem para CG. No CP verificou-se que ambos os modelos cinéticos se ajustavam aos dados experimentais. No CG observou-se que as isotérmicas de Freundlich e Sips apresentaram os melhores ajustamentos. Foi realizado um estudo dos mecanismos de adsorção para o CG e verificou-se que a troca iónica foi o fenómeno predominante. A avaliação ecotoxicológica das soluções contendo Cr, antes e após o ensaio de adsorção, indicou que o CG promoveu uma redução acentuada da ecotoxicidade das soluções até um nível não detetável.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um dos mais graves problemas que se apresentam ao poder público em nossos dias é a manutenção da segurança pública, em especial, graças às mudanças sociais ocorridas após os anos 60 do século passado. Para fazer frente aos novos desafios, houve necessidade de uma mudança de paradigmas nos modelos de gestão policial. O policiamento era caracterizado por patrulhas dispostas de forma aleatória e de forma reativa, atendendo às ocorrências. Contudo, tal forma de atuar não respondia mais às necessidades das comunidades. Era necessário que a polícia se tornasse mais proativa, e dispusesse seus meios de uma forma mais eficiente. Paralelamente aos fenômenos anteriormente comentados, o mundo conheceu um rápido desenvolvimento das tecnologias de informação como um todo. Estes novos sistemas permitiram o desenvolvimento de uma nova capacidade de processamento de informações dos mais diversos tipos, numéricas, de texto, figuras e de localização. Este último tipo de dado, em razão de sua relevância levou a criação dos sistemas de Informação Geográficas (SIG), os quais permitiram um aprofundamento da análise espacial de fenômenos de interesse. Com o avançar das tecnologias disponíveis, foram possíveis análises cada vez mais complexas dos dados, sendo necessária a possibilidade de fusão entre dados de diversas fontes e tipos, incluindo o dado espacial. Este novo tipo de análise, unindo dados geoespaciais com diversos outros tipos de informações deu origem a uma nova modalidade de inteligência: a Geointeligência. Desta forma, tendo em vista que o crime é, por sua própria natureza, um evento espacialmente localizado, é natural que houvesse uma aproximação entre as necessidades de novos modelos de gestão policial, fundamentados principalmente em dados objetivamente analisados e na Geointeligência. Dessa aproximação surgiram diversos modelos de negócios de gestão de policiamento, dentre os quais se destacam o policiamento orientado ao problema (POP) e o policiamento orientado pela inteligência (ILP). Assim, o principal objetivo dessa dissertação é verificar como seu deu tal impacto, bem como, através de exemplos, demonstrar a aplicação prática da Geointeligência em modelos de gestão de policiamento.