103 resultados para modelos não-lineares
Resumo:
RESUMO - A procura de cuidados de saúde constitui-se, desde há alguns anos, como um dos principais pontos de investigação na área da economia da saúde. São vários os estudos nacionais e internacionais publicados no decorrer do século passado, destacando-se o de Ronald Andersen, datado de 1960, que versou a utilização dos serviços de saúde pelas famílias e procurou descrever este fenómeno e os fatores condicionantes, na tentativa de conceber uma ferramenta de apoio ao desenvolvimento de políticas que promovessem a equidade no acesso aos serviços de saúde. Na década de 1970, Grossman, desenvolveu um modelo económico de procura em saúde (que ficou conhecido como Modelo de Grossman), estabelecendo que a procura de cuidados de saúde derivava da procura de saúde pelos indivíduos. A necessidade de caraterizar a procura dos cuidados de saúde, tem sido uma preocupação cada vez mais presente, considerando as restrições orçamentais que os sistemas de saúde atravessam, no contexto atual de restrições e medidas de austeridade. O Serviço Nacional de Saúde, em Portugal Continental, confronta-se, hoje mais do que nunca, com uma forte pressão orçamental, procurando promover a utilização mais racional e eficiente dos recursos disponíveis, o que condiciona todos os agentes que com ele contactam (profissionais de saúde, utentes, fornecedores e outros parceiros sociais). O presente estudo pretende caracterizar a procura e utilização dos cuidados de saúde de emergência pré-hospitalar, em 2010, em Portugal Continental, e contribuir, de uma forma restrita, para o processo de tomada de decisão adequada. A análise incidiu sobre os dados da procura do INEM, traduzida pelas chamadas (ocorrências) e pelas ativações de meios de emergências realizadas pelo CODU (Centros de Orientação de Doentes Urgentes). A via adotada para a prossecução deste estudo exploratório, baseou-se no Modelo Comportamental de Andersen, tendo sido escolhidas as variáveis, que melhor se enquadravam nos fatores predisponentes ou seja, aqueles que predispõem o indivíduo a utilizar os cuidados de saúde (e.g. sexo, idade), nos fatores capacitantes isto é, aqueles que habilitam (e.g. nível literário, instalações e equipamentos) e na necessidade de serviços de saúde (autoavaliada ou resultante da indicação de um profissional de saúde), todos eles definidos no referido modelo. Como variáveis de utilização efetiva dos cuidados de saúde, foram utilizados os dados fornecidos pelo INEM, nomeadamente o número de chamadas efetuadas para os CODU (ocorrências), e meios ativados, em consequência da ocorrência. Metodologicamente, optou-se por fazer uma análise descritiva dos resultados, seguida de análises de correlação e de regressão linear, de modo a aferir quais as variáveis que individualmente mais se correlacionam com a utilização e quais as variáveis (preditores) que melhor possibilitam a previsão da utilização dos cuidados de saúde de emergência pré-hospitalar. Os resultados obtidos na análise de correlação realizada por Concelho evidenciaram coeficientes de correlação, na sua maioria fracos ou moderados, não permitindo concluir de modo inequívoco que as variáveis predisponentes, capacitantes e de necessidade em saúde selecionadas, explicam a utilização dos cuidados de saúde de emergência pré-hospitalar. Foi possível, no entanto, e apesar de não muito marcante, demonstrar a existência de uma certa iniquidade na utilização, já que os fatores capacitantes parecem ser aqueles que melhor explicam a utilização dos cuidados de saúde de emergência pré-hospitalar, no ano de 2010. Quando a informação é agregada ao nível da Região e do CODU, as análises de correlação realizadas permitem constatar a existência de correlações moderadas e fortes entre os fatores que concorrem para a utilização (predisponentes, capacitantes e de necessidades em saúde). Os modelos preditivos determinados com recurso ao cálculo das regressões lineares não evidenciaram um comportamento homogéneo, quer no seu poder preditivo quer nas variáveis preditoras dos modelos. Verificou-se ainda que os modelos determinados tinham uma maior capacidade de predição da utilização de cuidados de emergência pré-hospitalar ao nível da ativação dos meios, do que ao nível do número de chamadas realizadas para os CODU, e que, de entre as ativações, os modelos determinados apresentaram maior capacidade preditiva da utilização de meios de suporte básico de vida, do que da utilização de meios de suporte avançado de vida. Um outro aspeto a ressaltar é a significância que as variáveis número de acidentes rodoviários com vítimas por 1000 habitantes, e número de meios de suporte básico de vida disponíveis por 100.000 habitantes têm nos modelos determinados, aparecendo em praticamente todos os modelos, como preditoras da utilização dos cuidados de saúde de emergência pré-hospitalar. Das análises realizadas ao nível das Regiões e dos CODU, verificou-se uma heterogeneidade nos resultados (influenciada pelas variáveis preditoras, nomeadamente das determinantes da procura – fatores demográficos, socioeconómicos e culturais), que influenciaram a capacidade preditiva dos modelos. Esta heterogeneidade, já havia sido descrita por Andersen, no seu modelo explicativo da utilização de cuidados de saúde. De facto, tal como no modelo teórico, também neste estudo se concluiu que as variáveis que mais contribuem para a predição da utilização são diversas, e variam de Região para Região, consoante a análise que se está a realizar. Fica em aberto a eventual pertinência da replicação do estudo, após a introdução de nova reorganização interna do INEM, nomeadamente com a eliminação da estrutura de 4 CODU passando a existir apenas um CODU nacional, a par da implementação de algoritmos de decisão, que poderão contribuir de forma significativa para a alteração da importância que as variáveis associadas à oferta, atualmente possuem, nos modelos determinados.
Resumo:
O presente trabalho tem como objetivo avaliar os limites de esbelteza preconizados nos regulamentos e normas utilizados em Portugal relativamente ao estado limite de deformação. Serão comparados diretamente para os mesmos vãos, os conceitos de verificação indireta de deformação do Regulamento de Estruturas de Betão Armado e Pré-esforçado (REBAP) e do Eurocódigo 2: Parte 1–1 (EC2-1-1), para lajes e vigas. Inicialmente será efetuado um estudo académico paramétrico, onde são avaliadas as flechas verticais em serviço para diferentes vãos, condições de apoio e geometria em planta. São comparados inicialmente os valores das flechas para análises lineares, usando as tabelas de Bares e modelos de elementos finitos com o software comercial SAP2000, de maneira a validar o modelo. De seguida são aplicados os métodos simplificativos de cálculo de flechas a longo prazo usando os ábacos do Comité Euro-International du Béton (CEB). Estes valores são depois comparados com as análises fisicamente não lineares em estado fendilhado a longo prazo com o SAP2000. O objetivo principal é portanto estabelecer comparações entre os dois métodos de análise pretendendo-se mostrar que a modelação com elementos finitos conduz a valores de deformações inferiores ao cálculo analítico permitindo uma maior economia no dimensionamento de elementos estruturais. Para finalizar é apresentado um manual de utilizador com o intuito de auxiliar o processo de modelação de elementos estruturais com elementos finitos não lineares utilizando o programa referido.
Resumo:
Este artigo tem por base um estudo enquadrado no uso de materiais/modelos de ensino da Matemática na década de 60, aquando da implementação do Movimento Matemática Moderna, em Portugal. Para atingir este objectivo definimos três questões: 1) Já havia interesse no uso destes novos métodos de ensino, e consequentemente no uso de materiais diversos que levassem a uma melhor aprendizagem por parte dos alunos, antes da década de 60? 2) De que modo os professores aplicaram e usaram estes métodos/materiais na sua prática docente? E que formação tiveram? 3) Quais os métodos e materiais que os professores utilizavam nas suas aulas? O foco central deste trabalho parte da análise de dois artigos escritos na revista Labor, o primeiro em 1952 e o segundo em 1960, pelo professor António Augusto Lopes1 sobre o uso de materiais no 1º ciclo e o Laboratório de Matemática. Toda a pesquisa deste trabalho focou-se na interpretação de material fornecido pelo professor Lopes (manuscritos, relatórios, livros e fotografias, documentos do Ministério da Educação Nacional), bem como por reflexões e comentários do próprio, registadas na forma de entrevista,2 sobre o que foi o Movimento Matemática Moderna ao nível da prática docente, com recurso a novas metodologias e materiais de ensino. O período que irá ser analisado em termos cronológicos será de 1957 a 1965, isto porque é um período experimental e de mudança. A reunião de 57 da CIEAEM em Madrid é o marco histórico que irá despoletar o interesse da Comissão e de Augusto Lopes para a aplicação dos novos materiais\modelos. Apesar de só em 1965 serem criadas as primeiras turmas piloto para aplicação das metodologias e dos novos materiais\modelos preconizadas pelo MMM.
Resumo:
Anualmente os incêndios florestais causam prejuízos por territórios por todo o mundo. Nas últimas décadas, estudos sobre o comportamento do fogo e avanços em tecnologias SIG, deram origem a modelos matemáticos de previsão e à sua inserção em sistemas informáticos de simulação de comportamento e propagação de fogo. A utilização destes necessita da caracterização das variáveis que determinam o comportamento do fogo: variáveis topográficas, condições meteorológicas e combustível vegetal. A vegetação assume-se como a única variável que pode ser controlada através de medidas de gestão e a mais estudada por todo o mundo. A sua caracterização é geralmente efetuada através de modelos de combustível, que consiste num conjunto de propriedades quantificáveis utilizadas nos modelos de comportamento do fogo. Através da utilização do simulador FARSITE, foi efetuada a simulação de comportamento de fogo em áreas de ocorrência de incêndios florestais localizadas na região do Alentejo Central, Portugal, recorrendo a diversos conjuntos de modelos de combustível para caracterizar a vegetação. Os resultados evidenciam, no geral, um maior rigor dos modelos de combustível customizados na caracterização da vegetação da área de estudo.
Resumo:
O crescente interesse pelo transporte ferroviário de alta-velocidade como transporte de médio curso obriga ao estudo do comportamento de vias-férreas para cumprir requisitos funcionais. As zonas de transição são um dos locais problemáticos que requerem um estudo aprofundado, onde a modelação numérica surge como uma poderosa ferramenta de análise. Neste trabalho é analisado o comportamento de um modelo numérico bidimensional de uma entrada numa ponte ferroviária situada sobre o Rio Sado e que faz parte da variante de Alcácer do Sal. Trata-se de um modelo numérico bidimensional de elementos lineares elásticos com uma execução mais rápida em relação a outros modelos. A resposta deste modelo é comparada com resultados de um modelo numérico tridimensional validado na mesma transição. Para atingir resultados fiáveis, o modelo bidimensional foi alvo de uma parametrização precisa que consistiu num processo de calibração com o modelo tridimensional referido anteriormente. As curvas de receptância da via foram o principal meio de calibração entre os dois modelos. Deste modo, realizou-se um estudo paramétrico de ambos os modelos para avaliar a influência de diversos parâmetros no cálculo de curvas de receptância. Analisou-se, também, o comportamento deste modelo para diferentes velocidades de circulação do veículo. Dentro deste campo foi dado especial atenção ao fenómeno da velocidade crítica de um veículo num solo flexível.
Resumo:
Um dos mais graves problemas que se apresentam ao poder público em nossos dias é a manutenção da segurança pública, em especial, graças às mudanças sociais ocorridas após os anos 60 do século passado. Para fazer frente aos novos desafios, houve necessidade de uma mudança de paradigmas nos modelos de gestão policial. O policiamento era caracterizado por patrulhas dispostas de forma aleatória e de forma reativa, atendendo às ocorrências. Contudo, tal forma de atuar não respondia mais às necessidades das comunidades. Era necessário que a polícia se tornasse mais proativa, e dispusesse seus meios de uma forma mais eficiente. Paralelamente aos fenômenos anteriormente comentados, o mundo conheceu um rápido desenvolvimento das tecnologias de informação como um todo. Estes novos sistemas permitiram o desenvolvimento de uma nova capacidade de processamento de informações dos mais diversos tipos, numéricas, de texto, figuras e de localização. Este último tipo de dado, em razão de sua relevância levou a criação dos sistemas de Informação Geográficas (SIG), os quais permitiram um aprofundamento da análise espacial de fenômenos de interesse. Com o avançar das tecnologias disponíveis, foram possíveis análises cada vez mais complexas dos dados, sendo necessária a possibilidade de fusão entre dados de diversas fontes e tipos, incluindo o dado espacial. Este novo tipo de análise, unindo dados geoespaciais com diversos outros tipos de informações deu origem a uma nova modalidade de inteligência: a Geointeligência. Desta forma, tendo em vista que o crime é, por sua própria natureza, um evento espacialmente localizado, é natural que houvesse uma aproximação entre as necessidades de novos modelos de gestão policial, fundamentados principalmente em dados objetivamente analisados e na Geointeligência. Dessa aproximação surgiram diversos modelos de negócios de gestão de policiamento, dentre os quais se destacam o policiamento orientado ao problema (POP) e o policiamento orientado pela inteligência (ILP). Assim, o principal objetivo dessa dissertação é verificar como seu deu tal impacto, bem como, através de exemplos, demonstrar a aplicação prática da Geointeligência em modelos de gestão de policiamento.
Resumo:
Os modelos de comportamento de solos que aplicam a teoria da mecânica dos solos dos estados críticos são uma importante base para a compreensão do comportamento dos solos e uma ferramenta que permite, de uma forma simples, ter em conta aspetos do comportamento que os mo-delos muito básicos não permitem. Neste trabalho compara-se, com recurso aos programas de cálculo geotécnico PLAXIS e CRISP, a utilização de dois modelos - um elástico-perfeitamente plástico (modelo Mohr-Coulomb) e outro baseado nos estados críticos (modelo Cam-Clay Modificado) - na determina-ção das pressões e dos impulsos de terras sobre estruturas de suporte rígidas. Comparam-se também os resultados numéricos com os obtidos com métodos analíticos. Exceto para casos mais complexos (utilizando simultaneamente solo sobreconsolidado e pa-ramento rugoso), os impulsos ativos e passivos obtidos com o modelo Cam-Clay Modificado são se-melhantes aos obtidos com o modelo Mohr-Coulomb e com os métodos analíticos, concluindo-se que o modelo avançado modela satisfatoriamente a rotura do solo. Este modelo apresenta inclusive aspetos interessantes, como o desenvolvimento, em alguns casos em que se utiliza solo sobreconsolidado, de uma resistência de pico, que se evidencia no aparecimento de um impulso de pico. No entanto, na utilização do modelo deve ter-se em atenção alguns aspetos, nomeadamente a forma como se obtém o seu parâmetro de resistência,
Resumo:
Esta tese tem como anexo um vídeo e uma tabela excel estão disponíveis para consulta nesta Biblioteca.
Resumo:
Na presente dissertação estudaram-se diferentes métodos de cálculo usados para a determinação da deformação (curvatura, rotação, extensão e flecha) em vigas de betão armado. Estudou-se o método de cálculo dito “exato”, método de integração numérica, e comparou-se os resultados obtidos por este método com aqueles ditos simplificados, dos quais se dá particular destaque ao método da secção determinante. Apresenta-se também uma análise comparativa de resultados experimentais obtidos em laboratório com os resultados teóricos, obtidos pela aplicação do método de integração numérica. Estudou-se igualmente a influência que certos parâmetros, como é o caso da fendilhação, fluência, retração e resistência à compressão do betão, têm na deformação de vigas de betão armado. O estudo da deformação foi efetuado considerando três tipos de secção: retangular, em T e em I. Por último o autor implementou um programa de cálculo em VBA Excel com o objetivo de quantificar os parâmetros da deformação em vigas de betão armado com secções: retangular, em T e em I, pela aplicação do método de integração numérica, de acordo com a norma EN 1992-1-1.
Resumo:
Neste trabalho propomos um novo tipo de modelo, que designamos por modelo com aninhamento em escada estruturado. Este modelo tem por base o modelo com aninhamento em escada e, tal como este, apresenta vantagens face ao aninhamento equilibrado. Permite grande economia no número de observações utilizadas e uma distribuição mais uniforme da informação pelos vários factores. Com este novo tipo de modelo podemos construir novos modelos, também em escada, mais complexos do que os existentes até agora. No aninhamento em escada a cada degrau do modelo corresponde um factor. Generalizamos a teoria destes modelos introduzindo a possibilidade de se desagregar cada um dos factores intervenientes, passando os degraus a terem submodelos com estrutura ortogonal. Para estudar o aninhamento em escada estruturado, propomos duas estruturas algébricas que, apesar de diferentes, possibilitam obter os mesmos estimadores dos parâmetros relevantes. Álgebras de Jordan comutativas são utilizadas para exprimir essas estruturas. Usando as matrizes da base principal, das álgebras a que se associam os modelos, a estimação vai ter por base a relação entre as componentes de variância canónicas e as usuais. Para além do aninhamento em escada estruturado, apresentamos também modelos obtidos cruzando vários desses aninhamentos.
Resumo:
Este trabalho tem o objectivo de criar um Editor e Visualizador Web de Formas de Onda para controladores digitais especificados com modelos Redes de Petri Input-Output Place-Transition (IOPT). Após uma análise das ferramentas existentes e constatando-se a inexistência de uma ferramenta adequada a essa função, desenvolveu-se uma ferramenta denominada Wave4IOPT, que permite a visualização das formas de onda de sinais e eventos de entrada e de saída ao longo do tempo. A ferramenta permite também a visualização dos resultados do histórico de uma simulação de uma Rede de Petri IOPT, proveniente do Simulador das IOPT-Tools. Esta ferramenta incorpora funcionalidades de edição, modos de visualização e um módulo básico de identificação e correcção de erros dos valores das formas de onda. O Wave4IOPT está disponível a partir de um browser e prevê-se que venha a estar integrado no ambiente de ferramentas IOPT-Tools. Esta ferramenta foi construída utilizando tecnologias Web como HTML, JavaScript, CSS, SVG e JSON. Adicionalmente, o Wave4IOPT poderá também servir para a edição, visualização e análise de outros tipos de sinais digitais, desde que sejam preenchidos os requisitos da estrutura do ficheiro JSON que será lido pela ferramenta.
Resumo:
O Hospital definido como local de elevada importância devido às caraterísticas e funções que tem, tais como assegurar que consegue receber todos os utentes da sua zona de ação, trata-los com dignidade e dar-lhes as melhores condições de forma rápida e eficaz para que estes consigam recuperar das suas doenças com a maior brevidade. Destes estão dependentes vidas humanas, como tal é de todo relevante ter uma gestão adequada de toda a infra-estrutura para que a eficiência seja alta e se consiga dar mais e melhor a todos os utentes, visto já se ter notado que nem sempre estes tiram o melhor partido das suas capacidades pelas mais diversas razões. Este projeto foi realizado numa parceria com o Hospital Professor Doutor Fernando Fonseca e consistiu em escrutinar dois serviços do hospital, o de tecnologia de informação e a Tomografia Axial Computorizada de imagiologia para perceber quais as falhas destes e como é que aplicando um modelo de gestão de Tecnologia de Informação denominado COBIT adaptado se consegue melhorar os resultados obtidos e as condições dadas pelo hospital. Este estudo permite perceber o porquê e as causas de uma estrutura deste tipo não dar o rendimento esperado e quais as implicâncias disso. Através dos resultados são analisadas os maiores pontos de rutura e retiradas elações sobre as possíveis melhorias a aplicar que a nível tecnológico, de recursos humanos, financeiro e de otimização do risco e melhoramento da eficácia de recursos.
Resumo:
A Internet das Coisas tal como o Big Data e a análise dos dados são dos temas mais discutidos ao querermos observar ou prever as tendências do mercado para as próximas décadas, como o volume económico, financeiro e social, pelo que será relevante perceber a importância destes temas na atualidade. Nesta dissertação será descrita a origem da Internet das Coisas, a sua definição (por vezes confundida com o termo Machine to Machine, redes interligadas de máquinas controladas e monitorizadas remotamente e que possibilitam a troca de dados (Bahga e Madisetti 2014)), o seu ecossistema que envolve a tecnologia, software, dispositivos, aplicações, a infra-estrutura envolvente, e ainda os aspetos relacionados com a segurança, privacidade e modelos de negócios da Internet das Coisas. Pretende-se igualmente explicar cada um dos “Vs” associados ao Big Data: Velocidade, Volume, Variedade e Veracidade, a importância da Business Inteligence e do Data Mining, destacando-se algumas técnicas utilizadas de modo a transformar o volume dos dados em conhecimento para as empresas. Um dos objetivos deste trabalho é a análise das áreas de IoT, modelos de negócio e as implicações do Big Data e da análise de dados como elementos chave para a dinamização do negócio de uma empresa nesta área. O mercado da Internet of Things tem vindo a ganhar dimensão, fruto da Internet e da tecnologia. Devido à importância destes dois recursos e á falta de estudos em Portugal neste campo, com esta dissertação, sustentada na metodologia do “Estudo do Caso”, pretende-se dar a conhecer a experiência portuguesa no mercado da Internet das Coisas. Visa-se assim perceber quais os mecanismos utilizados para trabalhar os dados, a metodologia, sua importância, que consequências trazem para o modelo de negócio e quais as decisões tomadas com base nesses mesmos dados. Este estudo tem ainda como objetivo incentivar empresas portuguesas que estejam neste mercado ou que nele pretendam aceder, a adoptarem estratégias, mecanismos e ferramentas concretas no que diz respeito ao Big Data e análise dos dados.