167 resultados para Modelos lineares (Estatística)


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O principal objectivo deste trabalho assenta em desenvolver modelos de previsão de preços de commodities para assim comparar a capacidade preditiva da simulação de Monte Carlo com a das redes neuronais. A simulação de Monte Carlo é principalmente utilizada para avaliar as opções, já as redes neuronais são utilizadas para fazer previsões, classificações, clustering ou aproximação de funções. Os diversos modelos desenvolvidos foram aplicados na previsão do preço futuro do milho, petróleo, ouro e cobre. Sendo que os horizontes temporais testados neste trabalho foram 1 dia, 5 dias, 20 dias e 60 dias. Através da análise do erro absoluto médio percentual (MAPE) concluiu-se que no geral o modelo individual que apresentou um melhor desempenho preditivo foram as redes neuronais. Contudo, nas previsões a 1 e a 5 dias os resultados obtidos foram semelhantes para ambos os modelos. Para se tentar melhorar os resultados obtidos pelos modelos individuais foram aplicadas algumas técnicas de combinação de modelos. A combinação de modelos demonstrou no geral capacidade para melhorar os resultados dos modelos individuais, porém apenas para o horizonte a 60 dias é que os resultados melhoraram significativamente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A elicitação de requisitos é uma das primeiras actividades do processo de Engenharia de Requisitos. Através desta etapa é possível capturar e estruturar os requisitos dos stakeholders e do sistema a ser implementado. Tipicamente esta estruturação é representada através de notação gráfica com o auxílio de ferramentas CASE. Estas ferramentas tornam esta actividade exclusiva, em termos de acessibilidade, a engenheiros sem deficiências físicas devido à complexidade das funcionalidades oferecidas pelas mesmas que permitem construir estes modelos. Nesta dissertação de mestrado é proposto desenvolver uma abordagem com suporte de uma ferramenta para melhorar a acessibilidade, e consequentemente,integrar um engenheiro de requisitos com limitações físicas na actividade de elicitação de requisitos. A ferramenta também possibilita uma alternativa para os stakeholders em geral para produzir modelos sem usar as mãos quando for mais conveniente. Esta abordagem propõe usar mecanismos de voz na geração de modelos de requisitos, mais concretamente modelos de requisitos orientados a objectivos, modelos de objectos e modelos de features usando técnicas de Model-Driven Development (MDD) (e.g., metamodelos). O stakeholder assim irá capturar os seus requisitos através de mecanismos de reconhecimento de voz, sendo automaticamente realizada uma transformação do seu discurso para um modelo KAOS, para um modelo conceptual ou para um modelo de features.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As abordagens de engenharia de requisitos orientada a objetivos oferecem mecanismos que ajudam na elicitação e modelação de requisitos. A presente dissertação centra-se no framework i*, uma das mais importantes linguagens de especificação de modelos de requisitos orientados a objetivos, que conta com grupos de trabalho em mais de vinte países e com sete edições de workshops internacionais. Existem alguns problemas que podem afetar a qualidade de modelos i*. A sua criação pode resultar em modelos complexos e/ou incompletos, assim como incorretos devido ao mau uso da notação do i*. Estes problemas contribuem para a existência de dificuldades na gestão e compreensão dos sistemas de software o que, por sua vez, leva a um aumento dos custos de desenvolvimento. A qualidade dos modelos deve, então, ser uma preocupação constante, por forma a que sejam construídos modelos corretos, completos e cuja complexidade acidental seja minimizada. Não obstante a sua importância, a gestão eficaz destes três aspetos é, ainda, um problema em aberto. Nesta dissertação é proposto um conjunto de métricas para dar suporte à avaliação quantitativa dos atributos de qualidade complexidade, completude e correção nos modelos de requisitos i*. As métricas são definidas seguindo a abordagem Goal-Question- Metric, sendo definidas tanto de modo informal, em língua natural, como formalmente, em OCL (Object Contraint Language), e incorporadas numa ferramenta de modelação i* para que possam ser recolhidas de modo automático. As métricas são avaliadas experimentalmente, através de um conjunto de casos de estudo reais e académicos, e teoricamente, através de propriedades deWeyuker.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introdução: No presente trabalho, através da colaboração entre as escolas do concelho do Barreiro, do Centro de Saúde local (Divisão de Saúde Pública) e da Faculdade de Motricidade Humana foi avaliada a situação de excesso de peso e de obesidade na população das escolas públicas do ensino básico do concelho do Barreiro no ano lectivo de 2007/2008. Métodos: A população em estudo corresponde à população escolar do ensino básico público, do ano lectivo de 2007/2008. O presente estudo tem carácter transversal, tendo sido efectuada uma amostragem aleatória. A amostra foi composta por 789 crianças de ambos os sexos (dos 5 aos 11 anos, sendo 49,2% do sexo masculino e 50,8% pelo sexo feminino). Foram aplicados questionários aos encarregados de educação para obtenção de dados sobre aspectos socioeconómicos, actividade física e consumo alimentar das crianças em estudo. Para melhor avaliar o estado nutricional foram efectuadas medições antropométricas (n=614) do peso, altura, pregas adiposas dos membros e tronco, perímetro do braço, cintura e anca e altura sentado. Inicialmente foi feita uma análise exploratória através dos programas SPSS e Epitools. Foram ainda analisadas as relações entre o estado nutricional e algumas variáveis independentes através do teste do qui-quadrado, regressão multinomial, modelos log-lineares e regressão gama. Resultados: No que se refere à prevalência de baixo peso, risco de baixo peso, peso normal, excesso de peso e obesidade para o sexo masculino (M) e feminino (F), verifica-se que para a população estudada de onde se retirou a amostra os valores com IC a 95% foram: baixo peso (M-0,10 [0,07; 0,13] e F-0,08 [0,05; 0,12]), risco de baixo peso (M-0,09 [0,06; 0,13] e F-0,07 [0,05, 0,11]), peso normal (M-0,52 [0,46, 0,57] e F-0,47 [0,41; 0,52]), excesso de peso (M- 0,15 [0,11; 0,19] e F-0,22 [0,18; 0,27]), obesidade (M-0,15 [0,12; 0,2] e F-0,15 [0,12; 0,2]). Verificou-se um conjunto de associações para as diversas variáveis analisadas. A nacionalidade dos pais tem uma relação estatisticamente significativa com as variáveis tarefas de casas, prática de desporto como hobby, prática de desporto fora da escola e consumo de diversos alimentos (refrigerantes, ovos, batatas fritas, saladas, doces e fast-food). A variável ser filho único também apresentou relações estatisticamente significativas com a prática de desporto fora da escola, consumo de ovos e consumo de salada. Por último, a prática de desporto fora da escola está relacionada com a etnia das crianças e o estado nutricional tem relação significativa com o consumo de refrigerantes e com o número de horas de sono. Conclusões: Os resultados do presente estudo evidenciaram que as prevalências de excesso de peso e obesidade se enquadram nos valores actualmente descritos para a Europa. Torna-se, então, urgente desenvolver uma correcta política de educação e prevenção, que deve passar não só pelos próprios jovens e crianças, mas também pelos pais, escola, profissionais de saúde e sociedade em geral. Propõe-se, assim, uma avaliação dos programas de educação alimentar iniciados pelo Centro de Saúde do Barreiro de modo a determinar se os recursos utilizados nestas intervenções estão a ser bem direccionados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No processo de desenvolvimento de software, um dos problemas recorrentes é garantir que as expectativas das partes interessadas (stakeholders) estão a ser satisfeitas. Expectativas essas que correspondem ao comportamento do sistema. A disciplina de Engenharia de Requisitos estuda a melhor forma de capturar, especificar, validar e gerir requisitos. No entanto, os modelos utilizados que expressam os comportamentos, muitas das vezes, não são entendidos por parte dos stakeholders. Com a introdução das metodologias ágeis, que se baseiam no princípio de uma colaboração ativa e contínua dos stakeholders durante o desenvolvimento de software, os pressupostos da disciplina de Engenharia de Requisitos foram questionados e fizeram nascer novas práticas. Uma prática que emergiu foi o Desenvolvimento Orientado ao Comportamento (BDD). Surgiu com a finalidade de dar a capacidade aos stakeholders de expressarem, sob a forma textual, o comportamento que desejam para o seu software, de forma simples e sucinta. No entanto, não existindo restrições nem validações automáticas na escrita dos stakeholders, é criada a possibilidade de introdução de ambiguidade e perda de informação quando a equipa de desenvolvimento utiliza os cenários descritos. Dado este problema, propomos uma abordagem em que os stakeholders consigam especificar cenários comportamentais, de forma cognitiva, com uma representação simples, clara e mais precisa. Criamos duas linguagens, o DomainMap e o BehaviorMap, que estão relacionadas entre si: uma para representar modelos de domínio e outra para representar cenários BDD, respetivamente. Foi executada uma experiência com 15 indivíduos para comparar o esforço cognitivo na compreensão entre cenários BehaviorMap e cenários textuais e os resultados mostraram que o BehaviorMap teve melhor desempenho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A análise de risco de crédito nas instituições bancárias e a mensuração do risco é de extrema importância para as instituições, uma vez que a concessão de crédito é a sua principal actividade. A capacidade de distinguir “bom” e “mau” cliente é um processo decisivo na constituição do crédito, pelo que são aplicados modelos de Credit Scoring , modelos quantitativos que consistem numa análise estatística à qualidade do crédito. O objectivo desta dissertação é estimar a probabilidade de incumprimento de cada cliente em função das variáveis sócio-económicas e demográficas, tendo por base dados de uma carteira de crédito ao consumo de uma Instituição Bancária de Cabo Verde, através de uma técnica estatística multivariada: a Regressão Logística. Adicionalmente, estima-se a taxa de recuperação do crédito, para clientes incumpridores, recorrendo à Regressão Beta, com base no histórico do crédito de cada cliente. Neste trabalho propõe-se, ainda, ummodelo para a estimação do spread a aplicar a um novo cliente assumido pela instituição bancária, em função da probabilidade de default(incumprimento) e da taxa de recuperação estimada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As construções em alvenaria representam grande parte da cultura do passado, e constituem a maioria dos edifícios existentes em Portugal. Para além disso, a elevada probabilidade da ocorrência de um grande sismo em Portugal, e as consequências resultantes, conduz à necessidade de um estudo mais detalhado e aprofundado acerca do comportamento deste tipo de estruturas. As metodologias modernas de avaliação de estruturas requerem análises estruturais cada vez mais detalhadas, o que torna necessário o estudo de modelos numéricos com recurso a programas de cálculo, capazes de prever aproximadamente o comportamento deste tipo de estruturas. O desenvolvimento verificado nesses programas de cálculo, assim como a grande lacuna existente no estudo de estruturas em alvenaria, resultante da dificuldade associada à caracterização mecânica deste tipo de material, e da complexidade da sua resposta estrutural quando sujeitas à acção sísmica, têm conduzido a um crescente interesse pelo estudo de estruturas em alvenaria. O forte comportamento inelástico de painéis de alvenaria torna inadequado o uso de análises estáticas lineares, e por esta razão, têm sido propostas várias estratégias que permitem lidar com o comportamento não linear deste tipo de estruturas. A análise pushover permite avaliar o desempenho da estrutura quando sujeita à acção sísmica que, normalmente, consiste na comparação entre o deslocamento exigido pelo sismo com a capacidade de deformação da estrutura, sendo esta última obtida a partir da curva de capacidade da estrutura. As diferentes ferramentas numéricas existentes, baseadas normalmente no uso de macro-elementos, alguns dos quais abordados neste trabalho, não são novidade no estudo de estruturas de alvenaria, mas as potencialidades actuais ainda não estão completamente estudadas, em particular no que diz respeito às aplicações não lineares e à problemática envolvida na escolha dos parâmetros mecânicos que caracterizam o material em estudo. Deste modo, neste trabalho estuda-se o macro-modelo, implementado no software 3DMacro, através da modelação de uma parede em alvenaria, com recurso ao programa referido, com o objectivo de obter a curva de capacidade da parede. Os resultados obtidos foram comparados com os resultados experimentais, assim como com outros estudos presentes na literatura, de modo a mostrar a adequabilidade do macro-modelo em estudo e contribuir para o conhecimento e impulsionamento do uso destas ferramentas neste contexto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, são apresentados e discutidos os procedimentos prescritos no Eurocódigo 3, Parte 1-8, para cálculo e dimensionamento de ligações pilar-viga com chapa de extremidade, em estruturas de aço. Em particular, é analisado o método das componentes, que permite determinar a resistência e rigidez rotacional de juntas metálicas, possibilitando a utilização de ligações semi-rígidas, que frequentemente resultam em ligações mais económicas. A metodologia descrita é aplicada em dois exemplos numéricos, tendo-se comparado os valores calculados com os resultados obtidos através de um programa de cálculo automático (Powerconnect) que também se baseia no método das componentes. As análises efetuadas permitem constatar que existem algumas vertentes do programa que podem ser melhoradas. Recorreu-se ainda a um programa de cálculo automático comercial (Sap2000) para comparar os esforços atuantes numa estrutura metálica com ligações rígidas e semi-rígidas, tendo-se concluído que existem diferenças significativas entre as distribuições de esforços obtidas para as duas situações.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A microbiologia preditiva é a conjugação de conhecimentos provenientes de disciplinas como a matemática, estatística e os sistemas de informação e tecnologia que pretende providenciar modelos preditivos que prevejam o comportamento microbiano em ambientes alimentares, de forma a poder prevenir a deterioração dos géneros alimentares bem como as doenças de origem alimentar. Os modelos preditivos primários, secundários e terciários são aplicados no intuito de melhorar a qualidade e segurança alimentar e particularmente os terciários, podem ser utilizados como ferramentas auxiliadoras na área de HACCP; é necessário ter em conta que estes modelos são uma representação muito simplificada da realidade, que possuem limitações devido á complexidade do comportamento microbiano e dos ambientes alimentares, podendo por isto estimar previsões que se desviem das situações reais. O presente trabalho tem como principal objectivo averiguar a aplicabilidade da microbiologia preditiva, particularmente, dos modelos terciários ou softwares preditivos, na análise de amostras de carne de vaca e porco armazenadas a 5ºC e 10ºC, comparando os resultados obtidos através da análise microbiológica clássica, realizada no laboratório de microbiologia da empresa SGS, com os resultados obtidos das previsões provenientes de dois softwares preditivos, nomeadamente, ComBase Predictor e PMP (Pathogen Modeling Program). Para tal, foram realizadas análises microbiológicas, por forma a realizar contagens de E.coli, S.aureus, L.monocytogenes e pesquisa de Salmonella e análises químicas para analisar o pH, aw e NaCl de 20 amostras de carne de vaca e 20 amostras de carne de porco Adicionalmente foram efetuadas contagens de microrganismos totais a 30ºC. Os resultados demonstraram que a ferramenta preditiva ComBase conseguiu efectuar melhores previsões para o crescimento de E. coli, S. aureus e L. monocytogenes em amostras de carne de vaca e de porco do que a ferramenta preditiva PMP. Contudo, mesmo sendo melhor, as previsões efectuadas pelo programa apresentaram desvios em relação às contagens reais que muito provavelmente se relacionam com a existência da flora de decomposição. Os resultados estimados pela ferramenta PMP foram sempre muito mais elevados do que os resultados obtidos na análise microbiológica laboratorial, o que demonstrou a sua não aplicabilidade a este tipo de amostras.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As cartas topográficas são representações planas, generalizadas e reduzidas à escala, de zonas da superfície terrestre, contendo símbolos e informação textual para a descrição dos objectos. A forma mais comum de as produzir é por intermédio de fotografias aéreas, principalmente pela afinidade entre o conteúdo destas e aquilo que se convencionou representar na carta. O Instituto Geográfico do Exército (IGeoE) é uma entidade produtora de cartografia que provê, com informação geográfica, as Forças Armadas e a comunidade civil. A caracterização do relevo é parte da informação existente na carta, concretizada através das curvas de nível: linhas curvas que representam uma cota pré-definida (convencionado de 10 em 10 m nas cartas à escala 1/25 000), constante em toda a sua extensão. Estas acompanham as formas do terreno e indicam a altitude do nível do solo, independentemente de se cruzarem com outros objectos à superfície terrestre (como edifícios ou arvoredo). A informação do relevo é bastante completa, abrangendo a área de toda a carta. As curvas de nível são, por norma, restituídas, manualmente, por um operador numa estação fotogramétrica, numa tarefa compreensivelmente morosa. Uma das alternativas para a representação do relevo é por intermédio da correlação automática de fotografias aéreas, daí resultando uma nuvem de pontos cotados numa grelha regular, cada um com uma coordenada tridimensional. Alguns desses pontos contêm “ruído”, visto representarem não a cota ao nível do solo, mas a cota de objectos sobre a superfície terrestre. O processo de eliminação desse “ruído”, que permite corrigir a cota do topo do objecto para o solo, designa-se por filtragem. Há diversos processos de filtragem de nuvens de pontos, embora nenhum consiga obter resultados totalmente satisfatórios, apresentando mais ou menos dificuldades em algumas zonas de terreno específicas (zonas urbanizadas ou vegetação baixa, por exemplo). Um dos caminhos apontados para auxiliar a filtragem é a utilização de outros recursos que forneçam mais informação, para além da simples coordenada tridimensional do ponto a corrigir, bem como uma mistura de algoritmos, tentando conciliar os pontos fortes de cada uma destas abordagens. O presente trabalho desenvolveu uma metodologia automática para representar o relevo a partir de uma nuvem de pontos cotados, para ser integrada na cadeia de produção do IGeoE. A partir de uma nuvem de pontos primária, e utilizando como dados de entrada ortofotos e informação vectorial dos objectos da edição anterior e da edição de trabalho da carta (excepto relevo) da mesma região, efectua quatro filtragens: filtragem de edifícios, filtragem de áreas de arvoredo superiores a 150 m x 150 m, filtragem de áreas de arvoredo inferiores a 150 m x 150 m e árvores isoladas (envolvendo a detecção de árvores em ortofotos, ao nível do pixel, por algoritmo de aprendizagem automática), e filtragem por declives.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o crescente progresso tecnológico, surgem sistemas mais eficientes, mas também mais complexos e não-lineares. Isto torna-se mais evidente em sistemas Multi-Input Multi-Output (MIMO), devido a diferentes efeitos que uma entrada possa ter sobre diversas saídas. Para estes sistemas, a obtenção de modelos matemáticos que capturem, com precisão aceitável, a dinâmica do sistema, torna-se cada vez mais complexa e custosa. Sendo que muitos dos sistemas utilizados hoje em dia são MIMO, a diminuição na precisão dos modelos matemáticos é uma adversidade à eficiência dos sistemas de controlo. Isto deve-se a grande parte dos métodos de projeto de controladores terem como base o modelo do sistema. O trabalho realizado nesta dissertação pretende desenvolver uma estrutura de supervisão para sistemas MIMO, com base em controlo Unfalsified, ou Unfalsified Control (UC). Este consiste numa abordagem de controlo adaptativo, cujo processo de adaptação se traduz na seleção de um controlador, de entre um conjunto pré-determinado. Em cada momento é selecionado o controlador que mais se adequa ao objetivo de controlo pretendido. A utilização de UC representa uma possível solução para o problema apresentado, pois utiliza apenas dados experimentais recolhidos do funcionamento do processo. Assim, contorna a necessidade da existência de modelos do processo. Existem, no entanto, dificuldades associadas à comutação de controladores, pelo que este trabalho pretende também desenvolver uma estrutura de Bumpless Transfer (BT), de forma a reduzir estes efeitos. Finalmente, a utilização de dados experimentais implica que a aplicação de UC a um processo está apenas limitada ao ajuste dos parâmetros do sistema de supervisão, e à existência de um conjunto de controladores adequados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RESUMO - Enquadramento: A Brucelose é uma antropozoonose prevalente no Mundo e é uma das mais negligenciadas. A sua transmissão ao ser humano é directa e indirecta, e acontece por via de contacto com animal infectado, o consumo de leite e seus derivados não pasteurizados e a não observância de uso de equipamentos de protecção individual e colectiva, entre outros factores. O conhecimento da prevalência e incidência da brucelose animal e humana no Namibe, uma província de Angola, é muito escasso sendo poucos os estudos que evidenciam esta doença no seio dos profissionais da pecuária expostos: trabalhadores de matadouros, veterinários e criadores de gado. É assim pertinente, com base em estudos científicos específicos, caracterizar esta situação. Objectivos: Caracterizar os ambientes dos profissionais (matadouro, talhos e salas municipais de abate e explorações); estimar a seroprevalência da brucelose humana em profissionais da pecuária (trabalhadores de matadouros e criadores de gado bovino) na província do Namibe, Angola em 2012; determinar a associação da presença da brucelose humana com variáveis sócio-demográficas, de conhecimento, de práticas e de características das explorações; determinar a prevalência da Brucelose em animais e em explorações; caracterizar os factores associados à presença da Brucelose em explorações bovinas; caracterizar o conhecimento e práticas sobre a Brucelose dos profissionais da pecuária e analisar a relação entre as prevalências nas explorações (infectadas versus não infectadas) e nos criadores (infectados versus não infectados). Métodos e materiais: estudos observacional e transversal seroepidemiológico em 131 trabalhadores de talhos, salas de abate e matadouro e 192 criadores amostrados aleatoriamente em toda província do Namibe. Os dados foram obtidos através da colheita de sangue e da aplicação de um questionário. Os testes laboratoriais utilizados foram o Rosa de Bengala (RBT) e a Aglutinação Lenta em Tubos (SAT). O estudo de conhecimento foi principalmente centrado na pergunta “Já ouviu falar de Brucelose” e nas questões relativas ao nível de conhecimento e práticas (indicadores baseados nas percentagens de respostas correctas ou práticas adequadas) dos factores de risco da Brucelose. Também foram investigados 1344 animais (em 192 explorações) com recurso ao método de diagnóstico laboratorial RBT para análise de soro sanguíneo e, complementarmente, foi aplicado um questionário aos respectivos criadores. Em termos de análise estatística, para além da abordagem descritiva, foram utilizados os testes de Independência do Quiquadrado, Fisher, Teste não paramétrico de Mann-Whitney, Teste de correlação de Spearman. Adicionalmente, com base em modelos de regressão logística, foram determinados odds ratio e os respectivos intervalos de confiança utilizando um nível de significância de 5%. Resultados: os ambientes dos profissionais (matadouro, talhos e salas municipais de abate e explorações) não reuniram as condições higio-sanitárias definidas internacionalmente como adequadas. Nos profissionais a infecção geral ponderada da Brucelose foi de 15.56% (IC95% : 13.61-17.50), sendo 5.34% em trabalhadores e 16.66% (IC95% : 11.39-21.93) em criadores. A significância estatística foi observada entre a seroprevalência humana e a categoria (trabalhador e criador) (p< 0.001) e o nível de instrução (p= 0.032), início de actividade (p= 0.079) e local de serviço (p= 0.055). Num contexto multivariado o factor positivamente associado à brucelose em profissionais foi a categoria profissional (OR = 3.54, IC95%: 1.57-8.30, relativo aos criadores em relação a trabalhadores). As taxas gerais aparentes de prevalência em animais e explorações foram respectivamente de 14.96% (IC 95%, 12.97-17.19) e de 40.10% (IC 95%, 32.75-47.93). Encontrou-se uma correlação positiva moderada entre o número de animais infectados por exploração com a média do número de abortos na exploração = 0.531, p< 0.001). Em média os profissionais tiveram um conhecimento global muito insuficiente (16.1%), tendo os trabalhadores apresentado valores mais elevados que os criadores (20.2% e 13.8%), diferença não estatisticamente significativa (p= 0.170). As perguntas “o leite in natura é fervido antes do consumo humano?”, “contacto com materiais fetais animais?”, “contacto com aerossóis no local de trabalho?” e “já fez alguma vez o teste de Brucelose humana?” (relacionadas com práticas) e as perguntas “já ouviu falar da Brucelose?”, “Brucelose é doença zoonótica/só animal/só humana? e “como a Brucelose se transmite aos humanos?” apresentaram níveis médios de práticas adequadas e conhecimentos correctos inferiores a 20%. Nas explorações infectadas, 39% dos criadores foram positivos (infectados) e nas não infectadas apenas 1.7%. O risco de um criador ser infectado estando numa exploração infectada foi significativamente mais elevado (OR= 36, IC95%: 8.28-157.04). Conclusões: os ambientes dos profissionais (matadouros, salas municipais de abate e talhos e explorações) propiciam o risco à brucelose. O estudo permite aferir que a Brucelose humana em profissionais da pecuária e a Brucelose animal são prevalentes na província do Namibe. Os níveis de seroprevalência detectados são elevados comparandoos com outros encontrados em algumas localidades africanas que possuem condições similares às do Namibe. Perto de duas em cada cinco (40.10%) explorações estão infectadas por esta doença. O número de abortos (média) está claramente relacionado com as explorações infectadas. O conhecimento geral dos profissionais da pecuária sobre a Brucelose é muito insuficiente, tendo os trabalhadores mostrado um maior conhecimento em relação aos criadores, mas ambos com níveis alarmantes. Os criadores infectados estão relacionados com as explorações infectadas. Há necessidade de controlar a doença e de informar e educar os profissionais sobre a brucelose, sendo fundamental que os serviços provinciais de veterinária reforcem acções de divulgação e de fiscalização.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RESUMO - A procura de cuidados de saúde constitui-se, desde há alguns anos, como um dos principais pontos de investigação na área da economia da saúde. São vários os estudos nacionais e internacionais publicados no decorrer do século passado, destacando-se o de Ronald Andersen, datado de 1960, que versou a utilização dos serviços de saúde pelas famílias e procurou descrever este fenómeno e os fatores condicionantes, na tentativa de conceber uma ferramenta de apoio ao desenvolvimento de políticas que promovessem a equidade no acesso aos serviços de saúde. Na década de 1970, Grossman, desenvolveu um modelo económico de procura em saúde (que ficou conhecido como Modelo de Grossman), estabelecendo que a procura de cuidados de saúde derivava da procura de saúde pelos indivíduos. A necessidade de caraterizar a procura dos cuidados de saúde, tem sido uma preocupação cada vez mais presente, considerando as restrições orçamentais que os sistemas de saúde atravessam, no contexto atual de restrições e medidas de austeridade. O Serviço Nacional de Saúde, em Portugal Continental, confronta-se, hoje mais do que nunca, com uma forte pressão orçamental, procurando promover a utilização mais racional e eficiente dos recursos disponíveis, o que condiciona todos os agentes que com ele contactam (profissionais de saúde, utentes, fornecedores e outros parceiros sociais). O presente estudo pretende caracterizar a procura e utilização dos cuidados de saúde de emergência pré-hospitalar, em 2010, em Portugal Continental, e contribuir, de uma forma restrita, para o processo de tomada de decisão adequada. A análise incidiu sobre os dados da procura do INEM, traduzida pelas chamadas (ocorrências) e pelas ativações de meios de emergências realizadas pelo CODU (Centros de Orientação de Doentes Urgentes). A via adotada para a prossecução deste estudo exploratório, baseou-se no Modelo Comportamental de Andersen, tendo sido escolhidas as variáveis, que melhor se enquadravam nos fatores predisponentes ou seja, aqueles que predispõem o indivíduo a utilizar os cuidados de saúde (e.g. sexo, idade), nos fatores capacitantes isto é, aqueles que habilitam (e.g. nível literário, instalações e equipamentos) e na necessidade de serviços de saúde (autoavaliada ou resultante da indicação de um profissional de saúde), todos eles definidos no referido modelo. Como variáveis de utilização efetiva dos cuidados de saúde, foram utilizados os dados fornecidos pelo INEM, nomeadamente o número de chamadas efetuadas para os CODU (ocorrências), e meios ativados, em consequência da ocorrência. Metodologicamente, optou-se por fazer uma análise descritiva dos resultados, seguida de análises de correlação e de regressão linear, de modo a aferir quais as variáveis que individualmente mais se correlacionam com a utilização e quais as variáveis (preditores) que melhor possibilitam a previsão da utilização dos cuidados de saúde de emergência pré-hospitalar. Os resultados obtidos na análise de correlação realizada por Concelho evidenciaram coeficientes de correlação, na sua maioria fracos ou moderados, não permitindo concluir de modo inequívoco que as variáveis predisponentes, capacitantes e de necessidade em saúde selecionadas, explicam a utilização dos cuidados de saúde de emergência pré-hospitalar. Foi possível, no entanto, e apesar de não muito marcante, demonstrar a existência de uma certa iniquidade na utilização, já que os fatores capacitantes parecem ser aqueles que melhor explicam a utilização dos cuidados de saúde de emergência pré-hospitalar, no ano de 2010. Quando a informação é agregada ao nível da Região e do CODU, as análises de correlação realizadas permitem constatar a existência de correlações moderadas e fortes entre os fatores que concorrem para a utilização (predisponentes, capacitantes e de necessidades em saúde). Os modelos preditivos determinados com recurso ao cálculo das regressões lineares não evidenciaram um comportamento homogéneo, quer no seu poder preditivo quer nas variáveis preditoras dos modelos. Verificou-se ainda que os modelos determinados tinham uma maior capacidade de predição da utilização de cuidados de emergência pré-hospitalar ao nível da ativação dos meios, do que ao nível do número de chamadas realizadas para os CODU, e que, de entre as ativações, os modelos determinados apresentaram maior capacidade preditiva da utilização de meios de suporte básico de vida, do que da utilização de meios de suporte avançado de vida. Um outro aspeto a ressaltar é a significância que as variáveis número de acidentes rodoviários com vítimas por 1000 habitantes, e número de meios de suporte básico de vida disponíveis por 100.000 habitantes têm nos modelos determinados, aparecendo em praticamente todos os modelos, como preditoras da utilização dos cuidados de saúde de emergência pré-hospitalar. Das análises realizadas ao nível das Regiões e dos CODU, verificou-se uma heterogeneidade nos resultados (influenciada pelas variáveis preditoras, nomeadamente das determinantes da procura – fatores demográficos, socioeconómicos e culturais), que influenciaram a capacidade preditiva dos modelos. Esta heterogeneidade, já havia sido descrita por Andersen, no seu modelo explicativo da utilização de cuidados de saúde. De facto, tal como no modelo teórico, também neste estudo se concluiu que as variáveis que mais contribuem para a predição da utilização são diversas, e variam de Região para Região, consoante a análise que se está a realizar. Fica em aberto a eventual pertinência da replicação do estudo, após a introdução de nova reorganização interna do INEM, nomeadamente com a eliminação da estrutura de 4 CODU passando a existir apenas um CODU nacional, a par da implementação de algoritmos de decisão, que poderão contribuir de forma significativa para a alteração da importância que as variáveis associadas à oferta, atualmente possuem, nos modelos determinados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho tem como objetivo avaliar os limites de esbelteza preconizados nos regulamentos e normas utilizados em Portugal relativamente ao estado limite de deformação. Serão comparados diretamente para os mesmos vãos, os conceitos de verificação indireta de deformação do Regulamento de Estruturas de Betão Armado e Pré-esforçado (REBAP) e do Eurocódigo 2: Parte 1–1 (EC2-1-1), para lajes e vigas. Inicialmente será efetuado um estudo académico paramétrico, onde são avaliadas as flechas verticais em serviço para diferentes vãos, condições de apoio e geometria em planta. São comparados inicialmente os valores das flechas para análises lineares, usando as tabelas de Bares e modelos de elementos finitos com o software comercial SAP2000, de maneira a validar o modelo. De seguida são aplicados os métodos simplificativos de cálculo de flechas a longo prazo usando os ábacos do Comité Euro-International du Béton (CEB). Estes valores são depois comparados com as análises fisicamente não lineares em estado fendilhado a longo prazo com o SAP2000. O objetivo principal é portanto estabelecer comparações entre os dois métodos de análise pretendendo-se mostrar que a modelação com elementos finitos conduz a valores de deformações inferiores ao cálculo analítico permitindo uma maior economia no dimensionamento de elementos estruturais. Para finalizar é apresentado um manual de utilizador com o intuito de auxiliar o processo de modelação de elementos estruturais com elementos finitos não lineares utilizando o programa referido.