1000 resultados para Modelos lineares generalizados


Relevância:

20.00% 20.00%

Publicador:

Resumo:

As abordagens de engenharia de requisitos orientada a objetivos oferecem mecanismos que ajudam na elicitação e modelação de requisitos. A presente dissertação centra-se no framework i*, uma das mais importantes linguagens de especificação de modelos de requisitos orientados a objetivos, que conta com grupos de trabalho em mais de vinte países e com sete edições de workshops internacionais. Existem alguns problemas que podem afetar a qualidade de modelos i*. A sua criação pode resultar em modelos complexos e/ou incompletos, assim como incorretos devido ao mau uso da notação do i*. Estes problemas contribuem para a existência de dificuldades na gestão e compreensão dos sistemas de software o que, por sua vez, leva a um aumento dos custos de desenvolvimento. A qualidade dos modelos deve, então, ser uma preocupação constante, por forma a que sejam construídos modelos corretos, completos e cuja complexidade acidental seja minimizada. Não obstante a sua importância, a gestão eficaz destes três aspetos é, ainda, um problema em aberto. Nesta dissertação é proposto um conjunto de métricas para dar suporte à avaliação quantitativa dos atributos de qualidade complexidade, completude e correção nos modelos de requisitos i*. As métricas são definidas seguindo a abordagem Goal-Question- Metric, sendo definidas tanto de modo informal, em língua natural, como formalmente, em OCL (Object Contraint Language), e incorporadas numa ferramenta de modelação i* para que possam ser recolhidas de modo automático. As métricas são avaliadas experimentalmente, através de um conjunto de casos de estudo reais e académicos, e teoricamente, através de propriedades deWeyuker.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introdução: No presente trabalho, através da colaboração entre as escolas do concelho do Barreiro, do Centro de Saúde local (Divisão de Saúde Pública) e da Faculdade de Motricidade Humana foi avaliada a situação de excesso de peso e de obesidade na população das escolas públicas do ensino básico do concelho do Barreiro no ano lectivo de 2007/2008. Métodos: A população em estudo corresponde à população escolar do ensino básico público, do ano lectivo de 2007/2008. O presente estudo tem carácter transversal, tendo sido efectuada uma amostragem aleatória. A amostra foi composta por 789 crianças de ambos os sexos (dos 5 aos 11 anos, sendo 49,2% do sexo masculino e 50,8% pelo sexo feminino). Foram aplicados questionários aos encarregados de educação para obtenção de dados sobre aspectos socioeconómicos, actividade física e consumo alimentar das crianças em estudo. Para melhor avaliar o estado nutricional foram efectuadas medições antropométricas (n=614) do peso, altura, pregas adiposas dos membros e tronco, perímetro do braço, cintura e anca e altura sentado. Inicialmente foi feita uma análise exploratória através dos programas SPSS e Epitools. Foram ainda analisadas as relações entre o estado nutricional e algumas variáveis independentes através do teste do qui-quadrado, regressão multinomial, modelos log-lineares e regressão gama. Resultados: No que se refere à prevalência de baixo peso, risco de baixo peso, peso normal, excesso de peso e obesidade para o sexo masculino (M) e feminino (F), verifica-se que para a população estudada de onde se retirou a amostra os valores com IC a 95% foram: baixo peso (M-0,10 [0,07; 0,13] e F-0,08 [0,05; 0,12]), risco de baixo peso (M-0,09 [0,06; 0,13] e F-0,07 [0,05, 0,11]), peso normal (M-0,52 [0,46, 0,57] e F-0,47 [0,41; 0,52]), excesso de peso (M- 0,15 [0,11; 0,19] e F-0,22 [0,18; 0,27]), obesidade (M-0,15 [0,12; 0,2] e F-0,15 [0,12; 0,2]). Verificou-se um conjunto de associações para as diversas variáveis analisadas. A nacionalidade dos pais tem uma relação estatisticamente significativa com as variáveis tarefas de casas, prática de desporto como hobby, prática de desporto fora da escola e consumo de diversos alimentos (refrigerantes, ovos, batatas fritas, saladas, doces e fast-food). A variável ser filho único também apresentou relações estatisticamente significativas com a prática de desporto fora da escola, consumo de ovos e consumo de salada. Por último, a prática de desporto fora da escola está relacionada com a etnia das crianças e o estado nutricional tem relação significativa com o consumo de refrigerantes e com o número de horas de sono. Conclusões: Os resultados do presente estudo evidenciaram que as prevalências de excesso de peso e obesidade se enquadram nos valores actualmente descritos para a Europa. Torna-se, então, urgente desenvolver uma correcta política de educação e prevenção, que deve passar não só pelos próprios jovens e crianças, mas também pelos pais, escola, profissionais de saúde e sociedade em geral. Propõe-se, assim, uma avaliação dos programas de educação alimentar iniciados pelo Centro de Saúde do Barreiro de modo a determinar se os recursos utilizados nestas intervenções estão a ser bem direccionados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No processo de desenvolvimento de software, um dos problemas recorrentes é garantir que as expectativas das partes interessadas (stakeholders) estão a ser satisfeitas. Expectativas essas que correspondem ao comportamento do sistema. A disciplina de Engenharia de Requisitos estuda a melhor forma de capturar, especificar, validar e gerir requisitos. No entanto, os modelos utilizados que expressam os comportamentos, muitas das vezes, não são entendidos por parte dos stakeholders. Com a introdução das metodologias ágeis, que se baseiam no princípio de uma colaboração ativa e contínua dos stakeholders durante o desenvolvimento de software, os pressupostos da disciplina de Engenharia de Requisitos foram questionados e fizeram nascer novas práticas. Uma prática que emergiu foi o Desenvolvimento Orientado ao Comportamento (BDD). Surgiu com a finalidade de dar a capacidade aos stakeholders de expressarem, sob a forma textual, o comportamento que desejam para o seu software, de forma simples e sucinta. No entanto, não existindo restrições nem validações automáticas na escrita dos stakeholders, é criada a possibilidade de introdução de ambiguidade e perda de informação quando a equipa de desenvolvimento utiliza os cenários descritos. Dado este problema, propomos uma abordagem em que os stakeholders consigam especificar cenários comportamentais, de forma cognitiva, com uma representação simples, clara e mais precisa. Criamos duas linguagens, o DomainMap e o BehaviorMap, que estão relacionadas entre si: uma para representar modelos de domínio e outra para representar cenários BDD, respetivamente. Foi executada uma experiência com 15 indivíduos para comparar o esforço cognitivo na compreensão entre cenários BehaviorMap e cenários textuais e os resultados mostraram que o BehaviorMap teve melhor desempenho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As construções em alvenaria representam grande parte da cultura do passado, e constituem a maioria dos edifícios existentes em Portugal. Para além disso, a elevada probabilidade da ocorrência de um grande sismo em Portugal, e as consequências resultantes, conduz à necessidade de um estudo mais detalhado e aprofundado acerca do comportamento deste tipo de estruturas. As metodologias modernas de avaliação de estruturas requerem análises estruturais cada vez mais detalhadas, o que torna necessário o estudo de modelos numéricos com recurso a programas de cálculo, capazes de prever aproximadamente o comportamento deste tipo de estruturas. O desenvolvimento verificado nesses programas de cálculo, assim como a grande lacuna existente no estudo de estruturas em alvenaria, resultante da dificuldade associada à caracterização mecânica deste tipo de material, e da complexidade da sua resposta estrutural quando sujeitas à acção sísmica, têm conduzido a um crescente interesse pelo estudo de estruturas em alvenaria. O forte comportamento inelástico de painéis de alvenaria torna inadequado o uso de análises estáticas lineares, e por esta razão, têm sido propostas várias estratégias que permitem lidar com o comportamento não linear deste tipo de estruturas. A análise pushover permite avaliar o desempenho da estrutura quando sujeita à acção sísmica que, normalmente, consiste na comparação entre o deslocamento exigido pelo sismo com a capacidade de deformação da estrutura, sendo esta última obtida a partir da curva de capacidade da estrutura. As diferentes ferramentas numéricas existentes, baseadas normalmente no uso de macro-elementos, alguns dos quais abordados neste trabalho, não são novidade no estudo de estruturas de alvenaria, mas as potencialidades actuais ainda não estão completamente estudadas, em particular no que diz respeito às aplicações não lineares e à problemática envolvida na escolha dos parâmetros mecânicos que caracterizam o material em estudo. Deste modo, neste trabalho estuda-se o macro-modelo, implementado no software 3DMacro, através da modelação de uma parede em alvenaria, com recurso ao programa referido, com o objectivo de obter a curva de capacidade da parede. Os resultados obtidos foram comparados com os resultados experimentais, assim como com outros estudos presentes na literatura, de modo a mostrar a adequabilidade do macro-modelo em estudo e contribuir para o conhecimento e impulsionamento do uso destas ferramentas neste contexto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, são apresentados e discutidos os procedimentos prescritos no Eurocódigo 3, Parte 1-8, para cálculo e dimensionamento de ligações pilar-viga com chapa de extremidade, em estruturas de aço. Em particular, é analisado o método das componentes, que permite determinar a resistência e rigidez rotacional de juntas metálicas, possibilitando a utilização de ligações semi-rígidas, que frequentemente resultam em ligações mais económicas. A metodologia descrita é aplicada em dois exemplos numéricos, tendo-se comparado os valores calculados com os resultados obtidos através de um programa de cálculo automático (Powerconnect) que também se baseia no método das componentes. As análises efetuadas permitem constatar que existem algumas vertentes do programa que podem ser melhoradas. Recorreu-se ainda a um programa de cálculo automático comercial (Sap2000) para comparar os esforços atuantes numa estrutura metálica com ligações rígidas e semi-rígidas, tendo-se concluído que existem diferenças significativas entre as distribuições de esforços obtidas para as duas situações.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As cartas topográficas são representações planas, generalizadas e reduzidas à escala, de zonas da superfície terrestre, contendo símbolos e informação textual para a descrição dos objectos. A forma mais comum de as produzir é por intermédio de fotografias aéreas, principalmente pela afinidade entre o conteúdo destas e aquilo que se convencionou representar na carta. O Instituto Geográfico do Exército (IGeoE) é uma entidade produtora de cartografia que provê, com informação geográfica, as Forças Armadas e a comunidade civil. A caracterização do relevo é parte da informação existente na carta, concretizada através das curvas de nível: linhas curvas que representam uma cota pré-definida (convencionado de 10 em 10 m nas cartas à escala 1/25 000), constante em toda a sua extensão. Estas acompanham as formas do terreno e indicam a altitude do nível do solo, independentemente de se cruzarem com outros objectos à superfície terrestre (como edifícios ou arvoredo). A informação do relevo é bastante completa, abrangendo a área de toda a carta. As curvas de nível são, por norma, restituídas, manualmente, por um operador numa estação fotogramétrica, numa tarefa compreensivelmente morosa. Uma das alternativas para a representação do relevo é por intermédio da correlação automática de fotografias aéreas, daí resultando uma nuvem de pontos cotados numa grelha regular, cada um com uma coordenada tridimensional. Alguns desses pontos contêm “ruído”, visto representarem não a cota ao nível do solo, mas a cota de objectos sobre a superfície terrestre. O processo de eliminação desse “ruído”, que permite corrigir a cota do topo do objecto para o solo, designa-se por filtragem. Há diversos processos de filtragem de nuvens de pontos, embora nenhum consiga obter resultados totalmente satisfatórios, apresentando mais ou menos dificuldades em algumas zonas de terreno específicas (zonas urbanizadas ou vegetação baixa, por exemplo). Um dos caminhos apontados para auxiliar a filtragem é a utilização de outros recursos que forneçam mais informação, para além da simples coordenada tridimensional do ponto a corrigir, bem como uma mistura de algoritmos, tentando conciliar os pontos fortes de cada uma destas abordagens. O presente trabalho desenvolveu uma metodologia automática para representar o relevo a partir de uma nuvem de pontos cotados, para ser integrada na cadeia de produção do IGeoE. A partir de uma nuvem de pontos primária, e utilizando como dados de entrada ortofotos e informação vectorial dos objectos da edição anterior e da edição de trabalho da carta (excepto relevo) da mesma região, efectua quatro filtragens: filtragem de edifícios, filtragem de áreas de arvoredo superiores a 150 m x 150 m, filtragem de áreas de arvoredo inferiores a 150 m x 150 m e árvores isoladas (envolvendo a detecção de árvores em ortofotos, ao nível do pixel, por algoritmo de aprendizagem automática), e filtragem por declives.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o crescente progresso tecnológico, surgem sistemas mais eficientes, mas também mais complexos e não-lineares. Isto torna-se mais evidente em sistemas Multi-Input Multi-Output (MIMO), devido a diferentes efeitos que uma entrada possa ter sobre diversas saídas. Para estes sistemas, a obtenção de modelos matemáticos que capturem, com precisão aceitável, a dinâmica do sistema, torna-se cada vez mais complexa e custosa. Sendo que muitos dos sistemas utilizados hoje em dia são MIMO, a diminuição na precisão dos modelos matemáticos é uma adversidade à eficiência dos sistemas de controlo. Isto deve-se a grande parte dos métodos de projeto de controladores terem como base o modelo do sistema. O trabalho realizado nesta dissertação pretende desenvolver uma estrutura de supervisão para sistemas MIMO, com base em controlo Unfalsified, ou Unfalsified Control (UC). Este consiste numa abordagem de controlo adaptativo, cujo processo de adaptação se traduz na seleção de um controlador, de entre um conjunto pré-determinado. Em cada momento é selecionado o controlador que mais se adequa ao objetivo de controlo pretendido. A utilização de UC representa uma possível solução para o problema apresentado, pois utiliza apenas dados experimentais recolhidos do funcionamento do processo. Assim, contorna a necessidade da existência de modelos do processo. Existem, no entanto, dificuldades associadas à comutação de controladores, pelo que este trabalho pretende também desenvolver uma estrutura de Bumpless Transfer (BT), de forma a reduzir estes efeitos. Finalmente, a utilização de dados experimentais implica que a aplicação de UC a um processo está apenas limitada ao ajuste dos parâmetros do sistema de supervisão, e à existência de um conjunto de controladores adequados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RESUMO - A procura de cuidados de saúde constitui-se, desde há alguns anos, como um dos principais pontos de investigação na área da economia da saúde. São vários os estudos nacionais e internacionais publicados no decorrer do século passado, destacando-se o de Ronald Andersen, datado de 1960, que versou a utilização dos serviços de saúde pelas famílias e procurou descrever este fenómeno e os fatores condicionantes, na tentativa de conceber uma ferramenta de apoio ao desenvolvimento de políticas que promovessem a equidade no acesso aos serviços de saúde. Na década de 1970, Grossman, desenvolveu um modelo económico de procura em saúde (que ficou conhecido como Modelo de Grossman), estabelecendo que a procura de cuidados de saúde derivava da procura de saúde pelos indivíduos. A necessidade de caraterizar a procura dos cuidados de saúde, tem sido uma preocupação cada vez mais presente, considerando as restrições orçamentais que os sistemas de saúde atravessam, no contexto atual de restrições e medidas de austeridade. O Serviço Nacional de Saúde, em Portugal Continental, confronta-se, hoje mais do que nunca, com uma forte pressão orçamental, procurando promover a utilização mais racional e eficiente dos recursos disponíveis, o que condiciona todos os agentes que com ele contactam (profissionais de saúde, utentes, fornecedores e outros parceiros sociais). O presente estudo pretende caracterizar a procura e utilização dos cuidados de saúde de emergência pré-hospitalar, em 2010, em Portugal Continental, e contribuir, de uma forma restrita, para o processo de tomada de decisão adequada. A análise incidiu sobre os dados da procura do INEM, traduzida pelas chamadas (ocorrências) e pelas ativações de meios de emergências realizadas pelo CODU (Centros de Orientação de Doentes Urgentes). A via adotada para a prossecução deste estudo exploratório, baseou-se no Modelo Comportamental de Andersen, tendo sido escolhidas as variáveis, que melhor se enquadravam nos fatores predisponentes ou seja, aqueles que predispõem o indivíduo a utilizar os cuidados de saúde (e.g. sexo, idade), nos fatores capacitantes isto é, aqueles que habilitam (e.g. nível literário, instalações e equipamentos) e na necessidade de serviços de saúde (autoavaliada ou resultante da indicação de um profissional de saúde), todos eles definidos no referido modelo. Como variáveis de utilização efetiva dos cuidados de saúde, foram utilizados os dados fornecidos pelo INEM, nomeadamente o número de chamadas efetuadas para os CODU (ocorrências), e meios ativados, em consequência da ocorrência. Metodologicamente, optou-se por fazer uma análise descritiva dos resultados, seguida de análises de correlação e de regressão linear, de modo a aferir quais as variáveis que individualmente mais se correlacionam com a utilização e quais as variáveis (preditores) que melhor possibilitam a previsão da utilização dos cuidados de saúde de emergência pré-hospitalar. Os resultados obtidos na análise de correlação realizada por Concelho evidenciaram coeficientes de correlação, na sua maioria fracos ou moderados, não permitindo concluir de modo inequívoco que as variáveis predisponentes, capacitantes e de necessidade em saúde selecionadas, explicam a utilização dos cuidados de saúde de emergência pré-hospitalar. Foi possível, no entanto, e apesar de não muito marcante, demonstrar a existência de uma certa iniquidade na utilização, já que os fatores capacitantes parecem ser aqueles que melhor explicam a utilização dos cuidados de saúde de emergência pré-hospitalar, no ano de 2010. Quando a informação é agregada ao nível da Região e do CODU, as análises de correlação realizadas permitem constatar a existência de correlações moderadas e fortes entre os fatores que concorrem para a utilização (predisponentes, capacitantes e de necessidades em saúde). Os modelos preditivos determinados com recurso ao cálculo das regressões lineares não evidenciaram um comportamento homogéneo, quer no seu poder preditivo quer nas variáveis preditoras dos modelos. Verificou-se ainda que os modelos determinados tinham uma maior capacidade de predição da utilização de cuidados de emergência pré-hospitalar ao nível da ativação dos meios, do que ao nível do número de chamadas realizadas para os CODU, e que, de entre as ativações, os modelos determinados apresentaram maior capacidade preditiva da utilização de meios de suporte básico de vida, do que da utilização de meios de suporte avançado de vida. Um outro aspeto a ressaltar é a significância que as variáveis número de acidentes rodoviários com vítimas por 1000 habitantes, e número de meios de suporte básico de vida disponíveis por 100.000 habitantes têm nos modelos determinados, aparecendo em praticamente todos os modelos, como preditoras da utilização dos cuidados de saúde de emergência pré-hospitalar. Das análises realizadas ao nível das Regiões e dos CODU, verificou-se uma heterogeneidade nos resultados (influenciada pelas variáveis preditoras, nomeadamente das determinantes da procura – fatores demográficos, socioeconómicos e culturais), que influenciaram a capacidade preditiva dos modelos. Esta heterogeneidade, já havia sido descrita por Andersen, no seu modelo explicativo da utilização de cuidados de saúde. De facto, tal como no modelo teórico, também neste estudo se concluiu que as variáveis que mais contribuem para a predição da utilização são diversas, e variam de Região para Região, consoante a análise que se está a realizar. Fica em aberto a eventual pertinência da replicação do estudo, após a introdução de nova reorganização interna do INEM, nomeadamente com a eliminação da estrutura de 4 CODU passando a existir apenas um CODU nacional, a par da implementação de algoritmos de decisão, que poderão contribuir de forma significativa para a alteração da importância que as variáveis associadas à oferta, atualmente possuem, nos modelos determinados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho tem como objetivo avaliar os limites de esbelteza preconizados nos regulamentos e normas utilizados em Portugal relativamente ao estado limite de deformação. Serão comparados diretamente para os mesmos vãos, os conceitos de verificação indireta de deformação do Regulamento de Estruturas de Betão Armado e Pré-esforçado (REBAP) e do Eurocódigo 2: Parte 1–1 (EC2-1-1), para lajes e vigas. Inicialmente será efetuado um estudo académico paramétrico, onde são avaliadas as flechas verticais em serviço para diferentes vãos, condições de apoio e geometria em planta. São comparados inicialmente os valores das flechas para análises lineares, usando as tabelas de Bares e modelos de elementos finitos com o software comercial SAP2000, de maneira a validar o modelo. De seguida são aplicados os métodos simplificativos de cálculo de flechas a longo prazo usando os ábacos do Comité Euro-International du Béton (CEB). Estes valores são depois comparados com as análises fisicamente não lineares em estado fendilhado a longo prazo com o SAP2000. O objetivo principal é portanto estabelecer comparações entre os dois métodos de análise pretendendo-se mostrar que a modelação com elementos finitos conduz a valores de deformações inferiores ao cálculo analítico permitindo uma maior economia no dimensionamento de elementos estruturais. Para finalizar é apresentado um manual de utilizador com o intuito de auxiliar o processo de modelação de elementos estruturais com elementos finitos não lineares utilizando o programa referido.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este artigo tem por base um estudo enquadrado no uso de materiais/modelos de ensino da Matemática na década de 60, aquando da implementação do Movimento Matemática Moderna, em Portugal. Para atingir este objectivo definimos três questões: 1) Já havia interesse no uso destes novos métodos de ensino, e consequentemente no uso de materiais diversos que levassem a uma melhor aprendizagem por parte dos alunos, antes da década de 60? 2) De que modo os professores aplicaram e usaram estes métodos/materiais na sua prática docente? E que formação tiveram? 3) Quais os métodos e materiais que os professores utilizavam nas suas aulas? O foco central deste trabalho parte da análise de dois artigos escritos na revista Labor, o primeiro em 1952 e o segundo em 1960, pelo professor António Augusto Lopes1 sobre o uso de materiais no 1º ciclo e o Laboratório de Matemática. Toda a pesquisa deste trabalho focou-se na interpretação de material fornecido pelo professor Lopes (manuscritos, relatórios, livros e fotografias, documentos do Ministério da Educação Nacional), bem como por reflexões e comentários do próprio, registadas na forma de entrevista,2 sobre o que foi o Movimento Matemática Moderna ao nível da prática docente, com recurso a novas metodologias e materiais de ensino. O período que irá ser analisado em termos cronológicos será de 1957 a 1965, isto porque é um período experimental e de mudança. A reunião de 57 da CIEAEM em Madrid é o marco histórico que irá despoletar o interesse da Comissão e de Augusto Lopes para a aplicação dos novos materiais\modelos. Apesar de só em 1965 serem criadas as primeiras turmas piloto para aplicação das metodologias e dos novos materiais\modelos preconizadas pelo MMM.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Anualmente os incêndios florestais causam prejuízos por territórios por todo o mundo. Nas últimas décadas, estudos sobre o comportamento do fogo e avanços em tecnologias SIG, deram origem a modelos matemáticos de previsão e à sua inserção em sistemas informáticos de simulação de comportamento e propagação de fogo. A utilização destes necessita da caracterização das variáveis que determinam o comportamento do fogo: variáveis topográficas, condições meteorológicas e combustível vegetal. A vegetação assume-se como a única variável que pode ser controlada através de medidas de gestão e a mais estudada por todo o mundo. A sua caracterização é geralmente efetuada através de modelos de combustível, que consiste num conjunto de propriedades quantificáveis utilizadas nos modelos de comportamento do fogo. Através da utilização do simulador FARSITE, foi efetuada a simulação de comportamento de fogo em áreas de ocorrência de incêndios florestais localizadas na região do Alentejo Central, Portugal, recorrendo a diversos conjuntos de modelos de combustível para caracterizar a vegetação. Os resultados evidenciam, no geral, um maior rigor dos modelos de combustível customizados na caracterização da vegetação da área de estudo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O crescente interesse pelo transporte ferroviário de alta-velocidade como transporte de médio curso obriga ao estudo do comportamento de vias-férreas para cumprir requisitos funcionais. As zonas de transição são um dos locais problemáticos que requerem um estudo aprofundado, onde a modelação numérica surge como uma poderosa ferramenta de análise. Neste trabalho é analisado o comportamento de um modelo numérico bidimensional de uma entrada numa ponte ferroviária situada sobre o Rio Sado e que faz parte da variante de Alcácer do Sal. Trata-se de um modelo numérico bidimensional de elementos lineares elásticos com uma execução mais rápida em relação a outros modelos. A resposta deste modelo é comparada com resultados de um modelo numérico tridimensional validado na mesma transição. Para atingir resultados fiáveis, o modelo bidimensional foi alvo de uma parametrização precisa que consistiu num processo de calibração com o modelo tridimensional referido anteriormente. As curvas de receptância da via foram o principal meio de calibração entre os dois modelos. Deste modo, realizou-se um estudo paramétrico de ambos os modelos para avaliar a influência de diversos parâmetros no cálculo de curvas de receptância. Analisou-se, também, o comportamento deste modelo para diferentes velocidades de circulação do veículo. Dentro deste campo foi dado especial atenção ao fenómeno da velocidade crítica de um veículo num solo flexível.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um dos mais graves problemas que se apresentam ao poder público em nossos dias é a manutenção da segurança pública, em especial, graças às mudanças sociais ocorridas após os anos 60 do século passado. Para fazer frente aos novos desafios, houve necessidade de uma mudança de paradigmas nos modelos de gestão policial. O policiamento era caracterizado por patrulhas dispostas de forma aleatória e de forma reativa, atendendo às ocorrências. Contudo, tal forma de atuar não respondia mais às necessidades das comunidades. Era necessário que a polícia se tornasse mais proativa, e dispusesse seus meios de uma forma mais eficiente. Paralelamente aos fenômenos anteriormente comentados, o mundo conheceu um rápido desenvolvimento das tecnologias de informação como um todo. Estes novos sistemas permitiram o desenvolvimento de uma nova capacidade de processamento de informações dos mais diversos tipos, numéricas, de texto, figuras e de localização. Este último tipo de dado, em razão de sua relevância levou a criação dos sistemas de Informação Geográficas (SIG), os quais permitiram um aprofundamento da análise espacial de fenômenos de interesse. Com o avançar das tecnologias disponíveis, foram possíveis análises cada vez mais complexas dos dados, sendo necessária a possibilidade de fusão entre dados de diversas fontes e tipos, incluindo o dado espacial. Este novo tipo de análise, unindo dados geoespaciais com diversos outros tipos de informações deu origem a uma nova modalidade de inteligência: a Geointeligência. Desta forma, tendo em vista que o crime é, por sua própria natureza, um evento espacialmente localizado, é natural que houvesse uma aproximação entre as necessidades de novos modelos de gestão policial, fundamentados principalmente em dados objetivamente analisados e na Geointeligência. Dessa aproximação surgiram diversos modelos de negócios de gestão de policiamento, dentre os quais se destacam o policiamento orientado ao problema (POP) e o policiamento orientado pela inteligência (ILP). Assim, o principal objetivo dessa dissertação é verificar como seu deu tal impacto, bem como, através de exemplos, demonstrar a aplicação prática da Geointeligência em modelos de gestão de policiamento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os modelos de comportamento de solos que aplicam a teoria da mecânica dos solos dos estados críticos são uma importante base para a compreensão do comportamento dos solos e uma ferramenta que permite, de uma forma simples, ter em conta aspetos do comportamento que os mo-delos muito básicos não permitem. Neste trabalho compara-se, com recurso aos programas de cálculo geotécnico PLAXIS e CRISP, a utilização de dois modelos - um elástico-perfeitamente plástico (modelo Mohr-Coulomb) e outro baseado nos estados críticos (modelo Cam-Clay Modificado) - na determina-ção das pressões e dos impulsos de terras sobre estruturas de suporte rígidas. Comparam-se também os resultados numéricos com os obtidos com métodos analíticos. Exceto para casos mais complexos (utilizando simultaneamente solo sobreconsolidado e pa-ramento rugoso), os impulsos ativos e passivos obtidos com o modelo Cam-Clay Modificado são se-melhantes aos obtidos com o modelo Mohr-Coulomb e com os métodos analíticos, concluindo-se que o modelo avançado modela satisfatoriamente a rotura do solo. Este modelo apresenta inclusive aspetos interessantes, como o desenvolvimento, em alguns casos em que se utiliza solo sobreconsolidado, de uma resistência de pico, que se evidencia no aparecimento de um impulso de pico. No entanto, na utilização do modelo deve ter-se em atenção alguns aspetos, nomeadamente a forma como se obtém o seu parâmetro de resistência,

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese tem como anexo um vídeo e uma tabela excel estão disponíveis para consulta nesta Biblioteca.